Home » Livros gerados por IA na Amazon podem dar conselhos mortais

Livros gerados por IA na Amazon podem dar conselhos mortais

by Thomas

A proliferação de guias gerados por IA vendidos na Amazon pode ter consequências mortais, alertam os especialistas. Desde livros de culinária a guias de viagem, os autores humanos estão a avisar os leitores de que a inteligência artificial pode desviá-los do seu caminho.

O mais recente conto de advertência sobre a confiança cega nos conselhos da IA vem do mundo obscuro da caça aos cogumelos. A Sociedade Micológica de Nova Iorque deu recentemente o alarme nas redes sociais sobre os perigos que representam os duvidosos livros de recolha de cogumelos que se crê terem sido criados utilizando ferramentas generativas de IA como o ChatGPT.

Existem centenas de fungos venenosos na América do Norte e vários que são mortais”, disse Sigrid Jakob, presidente da Sociedade Micológica de Nova Iorque, numa entrevista ao 404 Media. “Eles podem parecer semelhantes a espécies comestíveis populares. Uma má descrição num livro pode levar alguém a comer um cogumelo venenoso”.

Uma pesquisa na Amazon revelou inúmeros títulos suspeitos, como “The Ultimate Mushroom Books Field Guide of the Southwest” e “Wild Mushroom Cookbook For Beginner” [sic] – ambos removidos desde então – provavelmente escritos por autores inexistentes. Estes livros gerados por inteligência artificial seguem os mesmos trópicos, começando com pequenas vinhetas fictícias sobre amadores que soam a falso.

O conteúdo em si está repleto de imprecisões e imita padrões típicos de textos de IA, em vez de demonstrar conhecimentos micológicos reais, de acordo com ferramentas de análise como o ZeroGPT. No entanto, esses livros foram comercializados para novatos em forrageamento que não conseguem discernir conselhos inseguros fabricados por IA de fontes confiáveis.

“Livros escritos por humanos podem levar anos para serem pesquisados e escritos”, disse Jakob.

Não é a primeira vez… E provavelmente não será a última

Os especialistas afirmam que devemos ter cuidado com a confiança excessiva na IA, uma vez que esta pode facilmente espalhar desinformação ou conselhos perigosos se não for devidamente monitorizada. Um estudo recente concluiu que é mais provável que as pessoas acreditem em desinformação gerada por IA do que em falsidades criadas por humanos.

Os investigadores pediram a um gerador de texto de IA que escrevesse tweets falsos contendo desinformação sobre tópicos como vacinas e tecnologia 5G. Os participantes no inquérito foram depois convidados a distinguir os tweets reais dos fabricados com IA.

De forma alarmante, a pessoa média não conseguiu determinar de forma fiável se os tweets foram escritos por um humano ou por uma IA avançada como a GPT-3. A precisão do tweet não afectou a capacidade das pessoas para discernir a fonte.

“Como demonstrado pelos nossos resultados, os grandes modelos de linguagem atualmente disponíveis já podem produzir texto que é indistinguível do texto orgânico”, escreveram os investigadores.
Este fenómeno não se limita a guias de procura de alimentos duvidosos. Recentemente, surgiu outro caso em que uma aplicação de IA deu recomendações de receitas perigosas aos clientes.

O supermercado neozelandês Pak ‘n’ Save introduziu recentemente uma aplicação de planeamento de refeições chamada “Savey Meal-Bot” que utilizava a IA para sugerir receitas com base nos ingredientes que os utilizadores introduziam. Mas quando as pessoas introduziam artigos domésticos perigosos como brincadeira, a aplicação propunha misturas venenosas como “Aromatic Water Mix” e “Methanol Bliss”.

Embora a aplicação tenha sido actualizada desde então para bloquear sugestões inseguras, como o TCN pôde confirmar, destaca os riscos potenciais da IA que corre mal quando implementada de forma irresponsável.

No entanto, esta suscetibilidade à desinformação alimentada por IA não é uma surpresa. Os LLM foram concebidos para criar conteúdos com base nos resultados mais prováveis que fazem sentido, e foram treinados com enormes quantidades de dados para alcançar resultados tão incríveis. Assim, é mais provável que nós, humanos, acreditemos na IA porque ela gera coisas que imitam o que vemos como um bom resultado. É por isso que o MidJourney cria uma arquitetura bonita mas pouco prática e os LLMs criam guias de cogumelos interessantes mas mortais.

Embora os algoritmos criativos possam aumentar as capacidades humanas de muitas formas, a sociedade não se pode dar ao luxo de externalizar o seu julgamento inteiramente para as máquinas. A IA não tem a sabedoria e a responsabilidade que advêm da experiência vivida.

A floresta virtual criada pelos algoritmos de recolha de alimentos pode parecer luxuriante e acolhedora. Mas sem guias humanos que conheçam o terreno, corremos o risco de nos perdermos em território perigoso.

Related Posts

Leave a Comment