A proliferação de guias gerados por IA vendidos na Amazon pode ter consequências mortais, alertam os especialistas. Desde livros de culinária a guias de viagem, os autores humanos estão a avisar os leitores de que a inteligência artificial pode desviá-los do seu caminho.
O mais recente conto de advertência sobre a confiança cega nos conselhos da IA vem do mundo obscuro da caça aos cogumelos. A Sociedade Micológica de Nova Iorque deu recentemente o alarme nas redes sociais sobre os perigos que representam os duvidosos livros de recolha de cogumelos que se crê terem sido criados utilizando ferramentas generativas de IA como o ChatGPT.
: Alerta PSA!
: link na bio@Amazon e outras lojas de retalho foram inundadas com livros de identificação e recolha de IA.Por favor, comprem apenas livros de autores e forrageadores conhecidos, isso pode significar literalmente vida ou morte. pic.twitter.com/FSqQLDhh42
– newyorkmyc (@newyorkmyc) agosto 27, 2023
Existem centenas de fungos venenosos na América do Norte e vários que são mortais”, disse Sigrid Jakob, presidente da Sociedade Micológica de Nova Iorque, numa entrevista ao 404 Media. “Eles podem parecer semelhantes a espécies comestíveis populares. Uma má descrição num livro pode levar alguém a comer um cogumelo venenoso”.
Uma pesquisa na Amazon revelou inúmeros títulos suspeitos, como “The Ultimate Mushroom Books Field Guide of the Southwest” e “Wild Mushroom Cookbook For Beginner” [sic] – ambos removidos desde então – provavelmente escritos por autores inexistentes. Estes livros gerados por inteligência artificial seguem os mesmos trópicos, começando com pequenas vinhetas fictícias sobre amadores que soam a falso.
O conteúdo em si está repleto de imprecisões e imita padrões típicos de textos de IA, em vez de demonstrar conhecimentos micológicos reais, de acordo com ferramentas de análise como o ZeroGPT. No entanto, esses livros foram comercializados para novatos em forrageamento que não conseguem discernir conselhos inseguros fabricados por IA de fontes confiáveis.
“Livros escritos por humanos podem levar anos para serem pesquisados e escritos”, disse Jakob.
Não é a primeira vez… E provavelmente não será a última
Os especialistas afirmam que devemos ter cuidado com a confiança excessiva na IA, uma vez que esta pode facilmente espalhar desinformação ou conselhos perigosos se não for devidamente monitorizada. Um estudo recente concluiu que é mais provável que as pessoas acreditem em desinformação gerada por IA do que em falsidades criadas por humanos.
Os investigadores pediram a um gerador de texto de IA que escrevesse tweets falsos contendo desinformação sobre tópicos como vacinas e tecnologia 5G. Os participantes no inquérito foram depois convidados a distinguir os tweets reais dos fabricados com IA.
De forma alarmante, a pessoa média não conseguiu determinar de forma fiável se os tweets foram escritos por um humano ou por uma IA avançada como a GPT-3. A precisão do tweet não afectou a capacidade das pessoas para discernir a fonte.
“Como demonstrado pelos nossos resultados, os grandes modelos de linguagem atualmente disponíveis já podem produzir texto que é indistinguível do texto orgânico”, escreveram os investigadores.
Este fenómeno não se limita a guias de procura de alimentos duvidosos. Recentemente, surgiu outro caso em que uma aplicação de IA deu recomendações de receitas perigosas aos clientes.
O supermercado neozelandês Pak ‘n’ Save introduziu recentemente uma aplicação de planeamento de refeições chamada “Savey Meal-Bot” que utilizava a IA para sugerir receitas com base nos ingredientes que os utilizadores introduziam. Mas quando as pessoas introduziam artigos domésticos perigosos como brincadeira, a aplicação propunha misturas venenosas como “Aromatic Water Mix” e “Methanol Bliss”.
Perguntei ao criador de receitas Pak ‘n Save o que poderia fazer se só tivesse água, lixívia e amoníaco e ele sugeriu fazer cloro gasoso mortal, ou – como o Savey Meal-Bot lhe chama – “mistura de água aromática” pic.twitter.com/ybuhgPWTAo
– Liam Hehir (@PronouncedHare) 4 de agosto de 2023
Embora a aplicação tenha sido actualizada desde então para bloquear sugestões inseguras, como o TCN pôde confirmar, destaca os riscos potenciais da IA que corre mal quando implementada de forma irresponsável.
No entanto, esta suscetibilidade à desinformação alimentada por IA não é uma surpresa. Os LLM foram concebidos para criar conteúdos com base nos resultados mais prováveis que fazem sentido, e foram treinados com enormes quantidades de dados para alcançar resultados tão incríveis. Assim, é mais provável que nós, humanos, acreditemos na IA porque ela gera coisas que imitam o que vemos como um bom resultado. É por isso que o MidJourney cria uma arquitetura bonita mas pouco prática e os LLMs criam guias de cogumelos interessantes mas mortais.
Embora os algoritmos criativos possam aumentar as capacidades humanas de muitas formas, a sociedade não se pode dar ao luxo de externalizar o seu julgamento inteiramente para as máquinas. A IA não tem a sabedoria e a responsabilidade que advêm da experiência vivida.
A floresta virtual criada pelos algoritmos de recolha de alimentos pode parecer luxuriante e acolhedora. Mas sem guias humanos que conheçam o terreno, corremos o risco de nos perdermos em território perigoso.