Home » Los libros generados por inteligencia artificial en Amazon podrían dar consejos mortales

Los libros generados por inteligencia artificial en Amazon podrían dar consejos mortales

by Patricia

Los expertos advierten de que la proliferación de guías generadas por inteligencia artificial que se venden en Amazon podría tener consecuencias mortales. Desde libros de cocina hasta guías de viaje, los autores humanos advierten a los lectores de que la inteligencia artificial podría llevarles por mal camino.

La última advertencia sobre confiar ciegamente en los consejos de la inteligencia artificial procede del oscuro mundo de la búsqueda de setas. La Sociedad Micológica de Nueva York acaba de dar la voz de alarma en las redes sociales sobre los peligros que entrañan los dudosos libros de búsqueda de setas creados con herramientas de IA generativa como ChatGPT.

«Hay cientos de hongos venenosos en Norteamérica y varios que son mortales», afirma Sigrid Jakob, presidenta de la Sociedad Micológica de Nueva York, en una entrevista con 404 Media. «Pueden parecerse a especies comestibles populares. Una mala descripción en un libro puede inducir a alguien a comer una seta venenosa».

Una búsqueda en Amazon reveló numerosos títulos sospechosos como «The Ultimate Mushroom Books Field Guide of the Southwest» y «Wild Mushroom Cookbook For Beginner» [sic] -ambos retirados desde entonces- escritos probablemente por autores inexistentes. Estos libros generados por la IA siguen tropos familiares, abriéndose con breves viñetas ficticias sobre aficionados que suenan falsas.

Según herramientas de análisis como ZeroGPT, el contenido en sí está plagado de imprecisiones e imita patrones típicos de los textos generados por IA, en lugar de demostrar conocimientos micológicos reales. Sin embargo, estos libros se comercializaron para novatos en la búsqueda de comida que no pueden distinguir los consejos inseguros fabricados por la IA de las fuentes fiables.

«Los libros escritos por humanos pueden tardar años en investigarse y escribirse», afirma Jakob.

No es la primera vez… Y probablemente no será la última

Los expertos dicen que debemos ser cautos a la hora de confiar demasiado en la IA, ya que puede difundir fácilmente información errónea o consejos peligrosos si no se controla adecuadamente. Según un estudio reciente, las personas son más propensas a creer la desinformación generada por la IA que las falsedades creadas por humanos.

Los investigadores pidieron a un generador de texto de IA que escribiera tuits falsos con información errónea sobre temas como las vacunas y la tecnología 5G. A continuación, se pidió a los participantes en la encuesta que distinguieran los tuits reales de los fabricados con IA.

Resulta alarmante que una persona normal no pudiera determinar de forma fiable si los tuits habían sido escritos por un humano o por una IA avanzada como GPT-3. La precisión del tuit no afectó a la capacidad de las personas para discernir la fuente.

«Como demuestran nuestros resultados, los grandes modelos de lenguaje disponibles en la actualidad ya pueden producir texto que no se distingue del texto orgánico», escribieron los investigadores.

Este fenómeno no se limita a las dudosas guías de búsqueda de comida. Hace poco surgió otro caso en el que una aplicación de inteligencia artificial recomendaba recetas peligrosas a sus clientes.

El supermercado neozelandés Pak ‘n’ Save introdujo hace poco una aplicación de planificación de comidas llamada «Savey Meal-Bot» que utilizaba IA para sugerir recetas basadas en los ingredientes introducidos por los usuarios. Pero cuando los usuarios introducían artículos domésticos peligrosos a modo de broma, la aplicación proponía mezclas venenosas como «Aromatic Water Mix» y «Methanol Bliss».

Aunque la aplicación se ha actualizado para bloquear las sugerencias inseguras, como ha podido confirmar TCN, pone de manifiesto los riesgos potenciales de la inteligencia artificial cuando se utiliza de forma irresponsable.

Sin embargo, esta susceptibilidad a la desinformación generada por la IA no es una sorpresa. Las LLM están diseñadas para crear contenidos basados en los resultados más probables que tienen sentido, y han sido entrenadas con enormes cantidades de datos para lograr resultados tan increíbles. Así que los humanos somos más propensos a creer en la IA porque genera cosas que imitan lo que nosotros vemos como un buen resultado. Por eso los MidJourney crean arquitecturas bellas pero poco prácticas, y los LLM crean guías de hongos interesantes pero mortales.

Aunque los algoritmos creativos pueden aumentar las capacidades humanas de muchas maneras, la sociedad no puede permitirse externalizar su juicio por completo a las máquinas. La IA carece de la sabiduría y la responsabilidad que aporta la experiencia vivida.

El bosque virtual creado por los algoritmos puede parecer exuberante y acogedor. Pero sin guías humanos que conozcan el terreno, corremos el riesgo de extraviarnos en un territorio peligroso.

Related Posts

Leave a Comment