Home » Ex investigador de OpenAI: Hay un 50% de posibilidades de que la IA acabe en ‘catástrofe’

Ex investigador de OpenAI: Hay un 50% de posibilidades de que la IA acabe en ‘catástrofe’

by Thomas

Un antiguo investigador clave de OpenAI cree que hay una posibilidad decente de que la inteligencia artificial tome el control de la humanidad y la destruya.

«Creo que tal vez hay algo así como un 10-20% de posibilidades de que la IA tome el control, [con] muchos [o] la mayoría de los humanos muertos «, dijo Paul Christiano, quien dirigió el equipo de alineación de modelos de lenguaje en OpenAI, en el podcast Bankless. «Me lo tomo bastante en serio».

Christiano, que ahora dirige el Alignment Research Center, una organización sin ánimo de lucro cuyo objetivo es alinear las IA y los sistemas de aprendizaje automático con los «intereses humanos», dijo que le preocupa especialmente lo que ocurra cuando las IA alcancen la capacidad lógica y creativa de un ser humano. «En general, quizá estemos hablando de un 50/50 de posibilidades de catástrofe poco después de que tengamos sistemas a nivel humano», afirmó.

Christiano está en buena compañía. Recientemente, decenas de científicos de todo el mundo firmaron una carta en línea en la que instaban a OpenAI y a otras empresas que se apresuran a construir IA más rápidas e inteligentes a pulsar el botón de pausa en su desarrollo. Grandes personalidades, desde Bill Gates a Elon Musk, han expresado su preocupación por el hecho de que, si no se controla, la IA representa un peligro evidente y existencial para las personas.

No seas malvado

¿Por qué la IA se volvería malvada? Fundamentalmente, por la misma razón que una persona: entrenamiento y experiencia vital.

Como un bebé, la IA se entrena recibiendo montañas de datos sin saber muy bien qué hacer con ellos. Aprende intentando alcanzar ciertos objetivos con acciones aleatorias y se concentra en los resultados «correctos», definidos por el entrenamiento.

Hasta ahora, al sumergirse en los datos acumulados en Internet, el aprendizaje automático ha permitido a las IA dar enormes saltos en la elaboración de respuestas bien estructuradas y coherentes a las consultas humanas. Al mismo tiempo, el procesamiento informático subyacente que impulsa el aprendizaje automático es cada vez más rápido, mejor y más especializado. Algunos científicos creen que, en una década, esa capacidad de procesamiento, combinada con la inteligencia artificial, permitirá que estas máquinas sean sensibles, como los humanos, y tengan sentido de sí mismas.

Es entonces cuando las cosas se ponen peliagudas. Y por eso muchos investigadores sostienen que tenemos que encontrar la manera de imponer barreras ahora, en lugar de más tarde. Mientras se vigile el comportamiento de la IA, puede controlarse.

Pero si la moneda cae del otro lado, incluso el cofundador de OpenAI dice que las cosas podrían ponerse muy, muy mal.

¿Foomsday?

Este tema lleva años sobre la mesa. Uno de los debates más famosos sobre el tema tuvo lugar hace 11 años entre el investigador en IA Eliezer Yudkowsky y el economista Robin Hanson. Ambos discutían la posibilidad de alcanzar el «foom» -que aparentemente significa «Fast Onset of Overwhelming Mastery»-, el punto en el que la IA se vuelve exponencialmente más inteligente que los humanos y capaz de superarse a sí misma. (La derivación del término «foom» es discutible).

«Eliezer y sus acólitos creen que es inevitable que las IA se vuelvan ‘foom’ sin previo aviso, es decir, que un día construyas una AGI [inteligencia general artificial] y horas o días más tarde esa cosa se haya automejorado recursivamente hasta convertirse en una inteligencia divina y luego se coma el mundo. ¿Es esto realista?». tuiteó recientemente Perry Metzger, informático activo en la comunidad de la IA.

Metzger argumentó que incluso cuando los sistemas informáticos alcanzan un nivel de inteligencia humana, todavía hay tiempo de sobra para evitar cualquier mal resultado. «¿Es ‘foom’ lógicamente posible? Tal vez. No estoy convencido», afirma. «¿Es posible en el mundo real? Estoy bastante seguro de que no. ¿Va a existir una IA profundamente sobrehumana a largo plazo? Sí, pero no una ‘foom'».

Otra figura destacada, Yann Le Cun, también alzó la voz, afirmando que es «totalmente imposible» que la humanidad experimente una toma de poder de la IA.» Esperemos que así sea.

Related Posts

Leave a Comment