Para profundizar en la conversación pública sobre cómo deben comportarse los modelos de IA, compartimos nuestra Model Spec, nuestro enfoque para dar forma al comportamiento deseado de los modelos. https://t.co/RJBRwrcTtQ
– OpenAI (@OpenAI) 8 de mayo de 2024
«Creo que lo que me gustaría hacer en la próxima versión -basándome en los comentarios y las reacciones- es ser más preciso sobre la definición de contenido NSFW y la taxonomía», declaró Joanna Jang, jefa de producto de OpenAI para el comportamiento de los modelos, señalando que NSFW puede significar cualquier cosa, desde blasfemias escritas hasta imágenes falsas generadas por la IA.
En cuanto al material específico que se permitiría bajo una postura más permisiva, Jang dijo a NPR que «depende de tu definición de porno».
Subrayó que los deepfakes están absolutamente descartados.
«Pensamos que la legislación aplicable y la protección de la intimidad de las personas son suficientes, pero debemos dejar claro que no estamos aquí para crear deepfakes de inteligencia artificial ni porno de inteligencia artificial», declaró Jang a TCN. «Eso no es algo a lo que debamos dar prioridad cuando hay problemas más importantes que resolver».
Además de bloquear el contenido NSFW y garantizar el cumplimiento de la ley, la especificación del modelo de OpenAI incluye otras normas que ChatGPT está diseñado para seguir, como no proporcionar información peligrosa, respetar a los creadores y sus derechos y proteger la privacidad de las personas.
En la actualidad, ChatGPT Plus de OpenAI -que incluye Dall-E 3 para imágenes y GPT-4 para texto- no permite a los usuarios generar imágenes o textos abiertamente sexuales o sangrientos. Si se le pide que lo haga, ChatGPT responderá que la petición infringe sus condiciones de servicio. Como resultado, Jang señala que en la red abundan las quejas de los usuarios de OpenAI de que la empresa les está censurando.
«Hay muchas críticas de censura y demás, y gran parte de ese debate confunde -sin que nadie tenga la culpa- lo que es la política de OpenAI con lo que en realidad no es nuestra política», afirma Jang. «¿Estos modelos se comportan así, aunque vaya en contra de las directrices?».
Como explicó Jang, OpenAI publicó la especificación para establecer los comportamientos ideales de los modelos, centrándose en el cumplimiento legal y evitando el contenido NSFW, al tiempo que adopta la transparencia.
«Queremos aportar más matices a este debate porque ahora mismo -antes de la especificación del modelo- era: ‘¿Debería la IA crear porno o no?». afirma Jang. «Y espero que a través de la especificación del modelo podamos realmente mantener estas conversaciones».
«De nuevo, por eso me gustaría haber establecido [un marco] para haber podido iniciar esta conversación incluso un día antes», añadió.
Para los expertos en salud mental, la perspectiva de que las populares plataformas de inteligencia artificial se adentren en el ámbito de la pornografía y los contenidos para adultos es preocupante.
«En el campo de la adicción al sexo y al porno, con la pornografía generada por IA, estamos empezando a ver un aumento de los comportamientos adictivos», dijo a TCN Brandon Simpson, especialista en salud conductual de la Men’s Health Foundation. «Dado que la pornografía generada por IA crea la intensidad única y cada vez mayor necesaria para satisfacer una respuesta de dopamina, las personas se sumergen y la reemplazan con interacciones humanas, lo que conduce a niveles de ansiedad social, ansiedad de rendimiento y una variedad de otras disfunciones relacionadas con la sexualidad.»
Incluso con los límites establecidos por OpenAI y otras importantes plataformas de IA generativa de Google y Meta, existe una fuerte demanda de porno generado por IA, e innumerables formas de aprovechar la tecnología para representar a una víctima desprevenida, o generar material de abuso sexual infantil (CSAM).
«La especificación es sólo una parte de nuestra historia sobre cómo construir y desplegar la IA de forma responsable», dijo más tarde un representante de OpenAI a TCN. «Se complementa con nuestras políticas de uso, cómo esperamos que la gente use la API y ChatGPT» -en última instancia, con la intención de demostrar transparencia y «comenzar una conversación pública sobre cómo podría cambiarse y mejorarse.»
OpenAI ha invertido mucho en mejorar la privacidad y la seguridad de su conjunto de herramientas de IA, incluida la contratación de equipos rojos de ciberseguridad para encontrar vulnerabilidades en sus plataformas. En febrero, OpenAI y Microsoft anunciaron una operación conjunta para bloquear el uso de ChatGPT por parte de hackers chinos y norcoreanos, y OpenAI se unió a Google y Meta el mes pasado en un compromiso para priorizar la seguridad infantil en el desarrollo de sus modelos de IA.