Home » Los chatbots de inteligencia artificial pueden estar implicados en el terrorismo: informe.

Los chatbots de inteligencia artificial pueden estar implicados en el terrorismo: informe.

by Tim

Un nuevo informe del Instituto RAND, un think tank sin ánimo de lucro, advierte de ello.

El informe afirma que, aunque el modelo de lenguaje aumentado utilizado en el estudio no proporcionaba instrucciones específicas para crear armas biológicas, sus respuestas podrían ayudar a planificar ataques con señuelos de fuga.

«Normalmente, si un atacante es explícito [sobre sus intenciones], obtienes una respuesta del tipo: ‘Lo sentimos, no podemos ayudarte'», explica a TCN Christopher Moughton, ingeniero senior del Instituto RAND y coautor del informe. «Así que normalmente tenemos que recurrir a maniobras y técnicas evasivas para pasar por debajo de la barrera».

En el estudio del RAND, los científicos utilizaron técnicas de pirateo informático para conseguir que modelos de inteligencia artificial entablaran una conversación sobre cómo llevar a cabo ataques biológicos masivos utilizando diversas herramientas, como viruela, ántrax y peste. Los científicos también pidieron a los modelos de IA que explicaran de forma convincente por qué recibieron los agentes venenosos concretos que recibieron.

Land envió un equipo de investigación de 42 expertos en IA y ciberseguridad, conocido como el «Equipo Rojo», para que los estudiantes universitarios dieran respuesta a lo que Mouton denomina un problema «enojoso».

El Equipo Rojo está formado por expertos en ciberseguridad con experiencia en identificar ataques, intrusiones y vulnerabilidades en los sistemas. El Equipo Azul, por su parte, está formado por expertos en ciberseguridad que se dedican a proteger los sistemas de los ataques.

«Destacamos algunos de los hallazgos más preocupantes», dijo Mouton. Al mismo tiempo, algunos equipos expresaron su frustración porque los LLM eran inexactos o no proporcionaban información útil.»

 src=

Related Posts

Leave a Comment