Home » De la “baja precisión” al 99% de acierto: ¿puede la nueva herramienta de OpenAI detectar imágenes falsas?

De la «baja precisión» al 99% de acierto: ¿puede la nueva herramienta de OpenAI detectar imágenes falsas?

by Tim

Si la afirmación de Murati es cierta, se trata de un punto importante para la industria, ya que los métodos existentes para detectar imágenes creadas por inteligencia artificial no suelen estar automatizados. Normalmente, los entusiastas se basan en la intuición y se centran en problemas bien conocidos que se interponen en el camino de la IA generativa, como las imágenes de manos, dientes y patrones. La diferencia entre imágenes generadas por IA e imágenes editadas por IA sigue siendo borrosa, sobre todo si se intenta utilizar la IA para detectar IA.

OpenAI no sólo está trabajando para detectar imágenes dañinas creadas por IA, sino que también está estableciendo barreras para censurar su propio modelo, incluso más allá de lo que se indica abiertamente en sus directrices de contenido.

Como TCN descubrió, la herramienta Dall-E de OpenAI parece estar configurada para cambiar las señales sin previo aviso y arrojar errores silenciosamente cuando se le pide que produzca resultados específicos, incluso si siguen las directrices publicadas y evitan la creación de contenido sensible que incluya nombres específicos, estilos de artistas y etnias.
Parte de lo que puede ser una pista de Dall-E 3 en ChatGPT

Detectar falsificaciones profundas no es sólo tarea de OpenAI. Una empresa que está desarrollando este tipo de capacidades es DeepMedia, que trabaja específicamente con clientes gubernamentales.

Grandes empresas como Microsoft y Adobe también se han puesto manos a la obra. Han puesto en marcha lo que llaman un sistema de «marca de agua de IA». Este mecanismo, desarrollado por la Coalition for Content Validation and Authenticity (C2PA), incluye un símbolo distintivo «cr» dentro de un globo de diálogo para denotar contenido creado por inteligencia artificial. Este símbolo pretende servir de señal de transparencia que permita a los usuarios identificar el origen de los contenidos.

Sin embargo, como cualquier otra tecnología, no es infalible. Existe un resquicio por el que se pueden eliminar los metadatos que contengan este símbolo. Sin embargo, como antídoto, Adobe ha creado un servicio en la nube que puede restaurar los metadatos perdidos, garantizando así la presencia del símbolo. Este problema también tiene solución.

Con los reguladores avanzando hacia la penalización de las falsificaciones profundas, estas innovaciones se están convirtiendo no sólo en una proeza tecnológica, sino en una necesidad social. Las recientes iniciativas de OpenAI y empresas como Microsoft y Adobe demuestran un esfuerzo colectivo por garantizar la autenticidad en la era digital. Aunque estas herramientas se perfeccionen para ofrecer una mayor autenticidad, su uso efectivo depende de una adopción generalizada. Esto se aplica no sólo a los gigantes tecnológicos, sino también a los creadores de contenidos, las plataformas de medios sociales y los usuarios finales.

A pesar del rápido desarrollo de la IA generativa, los detectores siguen siendo incapaces de distinguir la autenticidad de texto, imágenes y audio. Por ahora, el juicio humano y la vigilancia son la mejor línea de defensa contra el uso indebido de la IA. Sin embargo, los humanos no son infalibles. Las soluciones a largo plazo requerirán que los líderes tecnológicos, los legisladores y el público trabajen juntos para superar esta desafiante nueva frontera.

Related Posts

Leave a Comment