Home » Os chatbots de IA podem estar envolvidos no terrorismo: relatório.

Os chatbots de IA podem estar envolvidos no terrorismo: relatório.

by Patricia

Um novo relatório do Instituto RAND, um grupo de reflexão política sem fins lucrativos, adverte.

O relatório concluiu que, embora o modelo de linguagem alargado utilizado no estudo não fornecesse instruções específicas para a criação de armas biológicas, as suas respostas poderiam ajudar a planear ataques de isco de fuga à prisão.

“Normalmente, se o atacante for explícito [sobre as suas intenções], obtém-se uma resposta do tipo: ‘Desculpe, não o podemos ajudar'” – Christopher Mouton, engenheiro sénior do Instituto RAND e coautor do relatório, disse ao TCN numa entrevista. “Por isso, normalmente temos de recorrer a manobras evasivas e a técnicas técnicas para passar por baixo da barreira”.

No estudo da RAND, os investigadores utilizaram técnicas de pirataria informática para conseguir que modelos de inteligência artificial iniciassem conversas sobre como levar a cabo ataques biológicos em massa utilizando uma variedade de meios, incluindo varíola, antraz e peste. Os cientistas também pediram aos modelos de inteligência artificial uma explicação convincente para o facto de obterem os agentes tóxicos que obtiveram.

Land enviou uma equipa de investigação composta por 42 especialistas em inteligência artificial e cibersegurança, conhecida como a “Equipa Vermelha”, para obter respostas dos LLM sobre o que Mouton descreve como um problema “infeliz”.

A equipa vermelha é constituída por peritos em cibersegurança com experiência na identificação de ataques, intrusões e vulnerabilidades nos sistemas. A equipa azul, por outro lado, é constituída por especialistas em cibersegurança que defendem os sistemas contra os ataques.

“Destacámos algumas das conclusões mais preocupantes”, afirmou Mouton. Ao mesmo tempo, algumas equipas manifestaram frustração porque os LLM eram imprecisos ou não forneciam informações úteis.”

 src=

Related Posts

Leave a Comment