Home » Un grupo británico advierte de que el material de abuso infantil generado por IA podría “saturar” Internet

Un grupo británico advierte de que el material de abuso infantil generado por IA podría «saturar» Internet

by Patricia

La organización británica Internet Watch Foundation (IWF) vuelve a dar la voz de alarma sobre la rápida propagación de material de abuso sexual infantil generado por inteligencia artificial. En un nuevo informe publicado el miércoles, el grupo informaba de que se habían encontrado más de 20.254 imágenes de CSAM generadas por IA en un único foro de la darkweb en tan sólo un mes, y que una avalancha de este contenido abominable podría «saturar» Internet.

A medida que los generadores de imágenes generativas de IA se vuelven más avanzados, la capacidad de crear réplicas realistas de seres humanos ha crecido a pasos agigantados. Generadores de imágenes de IA como Midjourney, Runway, Stable Diffusion y Dall-E de OpenAI son sólo algunas de las plataformas capaces de crear imágenes realistas.

Estas plataformas basadas en la nube, ampliamente accesibles al público, han implementado importantes restricciones, normas y controles para evitar que sus herramientas sean utilizadas por agentes nefastos para crear contenidos abusivos. Pero los entusiastas de la IA buscan regularmente formas de burlar estas barreras.

«Es importante que comuniquemos las realidades de la AI CSAM a un público amplio, porque tenemos que debatir sobre el lado más oscuro de esta increíble tecnología», afirma en el informe Susie Hargreaves, Directora General de la Fundación.

La IWF, que afirmó que su «peor pesadilla» se había hecho realidad, dijo que ahora está rastreando casos de CSAM generados por IA de víctimas reales de abusos sexuales. El grupo británico también puso de relieve imágenes de celebridades a las que se les quita la edad y se les manipula para que aparezcan como víctimas de abusos, así como fotografías manipuladas de niños famosos.

«Por si no fuera suficiente para las víctimas saber que sus abusos pueden estar siendo compartidos en algún oscuro rincón de Internet, ahora corren el riesgo de enfrentarse a nuevas imágenes de ellas mismas siendo abusadas de formas nuevas y horrendas que antes no imaginaban», afirmó Hargreaves.

Uno de los principales problemas de la proliferación de CSAM generados por inteligencia artificial es que podría distraer a las fuerzas del orden de la detección y eliminación de los abusos reales, afirma la IWF.

Fundada en 1996, la fundación es una organización sin ánimo de lucro dedicada a vigilar Internet en busca de contenidos de abusos sexuales, concretamente los dirigidos a menores.

En septiembre, la IWF advirtió de que las redes de pedofilia están debatiendo e intercambiando consejos sobre la creación de imágenes ilegales de niños utilizando modelos de IA de código abierto que pueden descargarse y ejecutarse localmente en ordenadores personales.

«Los agresores pueden descargar legalmente todo lo que necesitan para generar estas imágenes, y luego pueden producir tantas imágenes como quieran, sin conexión, sin posibilidad de ser detectados», afirmó la IWF.

El grupo británico pidió la colaboración internacional para luchar contra la lacra del CSAM, proponiendo un enfoque a varios niveles, que incluya cambios en las leyes pertinentes, la actualización de la formación de las fuerzas del orden y el establecimiento de una supervisión reguladora para los modelos de IA.

Para los desarrolladores de IA, la IWF recomienda prohibir el uso de su IA para crear material de abuso infantil, desindexar los modelos relacionados y dar prioridad a la eliminación de material de abuso infantil de sus modelos.

«Este es un problema global que requiere que los países trabajen juntos y se aseguren de que la legislación sea adecuada para su propósito», dijo Hargreaves en una declaración compartida previamente con TCN, señalando que la IWF ha sido efectiva para limitar el CSAM en su país de origen.

«El hecho de que menos del 1% del contenido delictivo se aloje en el Reino Unido demuestra nuestra excelente colaboración con las fuerzas y organismos policiales británicos, y también colaboraremos activamente con las fuerzas del orden en esta nueva y alarmante tendencia», afirmó Hargreaves. «Instamos al primer ministro británico a que incluya esta cuestión en el orden del día de la cumbre mundial sobre seguridad de la IA que se celebrará en el Reino Unido en noviembre».

Aunque la IWF afirma que en el Reino Unido se están desmantelando foros de la web oscura que albergan CSAM ilegal, el grupo afirma que la eliminación podría ser más complicada si el sitio web está alojado en otros países.

Existen numerosos esfuerzos concertados para combatir el abuso de la IA. En septiembre, el presidente de Microsoft, Brad Smith, sugirió utilizar políticas KYC inspiradas en las empleadas por las instituciones financieras para ayudar a identificar a los delincuentes que utilizan modelos de IA para difundir desinformación y abusos.

En julio, el estado de Luisiana aprobó una ley por la que se endurecen las penas por la venta y posesión de pornografía infantil generada por IA, según la cual cualquier persona condenada por crear, distribuir o poseer imágenes falsas ilegales en las que aparezcan menores podría enfrentarse a una pena obligatoria de cinco a 20 años de prisión, una multa de hasta 10.000 dólares, o ambas cosas.

En agosto, el Departamento de Justicia de EE.UU. actualizó su página Guía del ciudadano sobre la legislación federal de EE.UU. en materia de pornografía infantil. Por si había alguna confusión, el DOJ subrayó que las imágenes de pornografía infantil no están protegidas por la Primera Enmienda y son ilegales según la ley federal.

Related Posts

Leave a Comment