Home » Antigo investigador da OpenAI: Há 50% de hipóteses de a IA acabar em “catástrofe

Antigo investigador da OpenAI: Há 50% de hipóteses de a IA acabar em “catástrofe

by Tim

Porque é que a IA se tornaria má? Fundamentalmente, pela mesma razão que uma pessoa: treino e experiência de vida.

Tal como um bebé, a IA é treinada ao receber montanhas de dados sem saber realmente o que fazer com eles. Aprende tentando atingir determinados objectivos com acções aleatórias e concentra-se nos resultados “correctos”, tal como definidos pelo treino.

Até agora, ao mergulhar nos dados acumulados na Internet, a aprendizagem automática permitiu que as IAs dessem grandes saltos na elaboração de respostas bem estruturadas e coerentes às perguntas humanas. Ao mesmo tempo, o processamento informático subjacente que alimenta a aprendizagem automática está a tornar-se mais rápido, melhor e mais especializado. Alguns cientistas acreditam que, dentro de uma década, esse poder de processamento, combinado com a inteligência artificial, permitirá que estas máquinas se tornem sencientes, como os humanos, e tenham um sentido de identidade.

É nessa altura que as coisas ficam complicadas. E é por isso que muitos investigadores argumentam que precisamos de descobrir como impor barreiras de protecção agora, em vez de mais tarde. Desde que o comportamento da IA seja monitorizado, pode ser controlado.

Mas se a moeda cair do outro lado, até o co-fundador da OpenAI diz que as coisas podem ficar muito, muito más.

Foomsday?

Este tópico tem estado em cima da mesa durante anos. Um dos debates mais famosos sobre o assunto teve lugar há 11 anos entre o investigador de IA Eliezer Yudkowsky e o economista Robin Hanson. Os dois discutiram a possibilidade de se atingir o “foom” – que aparentemente significa “Fast Onset of Overwhelming Mastery” – o ponto em que a IA se torna exponencialmente mais inteligente do que os humanos e capaz de se auto-aperfeiçoar. (A derivação do termo “foom” é discutível).

“Eliezer e os seus acólitos acreditam que é inevitável que as IAs se tornem ‘foom’ sem aviso, ou seja, um dia constrói-se uma AGI [inteligência artificial geral] e, horas ou dias depois, a coisa auto-aperfeiçoa-se recursivamente até se tornar uma inteligência divina e depois come o mundo. Será isto realista? Perry Metzger, um cientista informático activo na comunidade da IA, tweetou recentemente.

Metzger argumentou que, mesmo quando os sistemas informáticos atingem um nível de inteligência humana, ainda há muito tempo para evitar quaisquer maus resultados. O “foom” é logicamente possível? Talvez. Não estou convencido”, disse ele. “Será que é possível no mundo real? Tenho quase a certeza que não. A IA profundamente sobre-humana a longo prazo vai ser uma coisa? Sim, mas não um ‘foom'”.

Outra figura proeminente, Yann Le Cun, também levantou a voz, afirmando que é “totalmente impossível” que a humanidade experimente uma aquisição de IA. Esperemos que sim…

Related Posts

Leave a Comment