Home » Continúan los rumores sobre el doble de Vladimir Putin.

Continúan los rumores sobre el doble de Vladimir Putin.

by Patricia

Un artículo publicado en los medios de comunicación ha desatado de nuevo los rumores de que Vladimir Putin utiliza los servicios de un doble durante sus apariciones públicas.
Según el diario

DailyMail, esta persistente e infundada afirmación, que circula desde hace meses, ha resurgido en Japón. Investigadores japoneses analizaron vídeos y fotografías de Putin en diversos actos y sugirieron que estaba representado por al menos tres personas. Aunque el Kremlin refuta inmediatamente tales afirmaciones, esta historia ilustra un efecto secundario del rápido desarrollo de la inteligencia artificial: el desarrollo de la falsificación profunda.

La falsificación profunda es una tecnología que utiliza algoritmos para sustituir rostros en vídeos, imágenes y otros contenidos digitales para que lo falso parezca real. Los deepfakes son reconocidos como una nueva y peligrosa herramienta de manipulación política. La detección de falsificaciones se ha convertido en una industria en expansión, y la empresa líder en inteligencia artificial generativa OpenAI afirma ser capaz de detectarlas con una precisión del 99%.

Sin embargo, según los investigadores, esto no es fácil y será cada vez más difícil

La cadena japonesa TBS informó sobre un estudio basado en inteligencia artificial según el cual el presidente ruso Vladimir Putin contrata a dobles para asistir a diversos eventos. Imagen de: Daily Mail» src=»https://www.todayscrypto.news/wp-content/uploads/2023/11/PBS-Japan-Daily-Mail.jpg@webp.jpg» width=»828″ height=»481″ /☻

El presidente y director ejecutivo de Digimark, Riley McCormack, dijo a TCN: «En este momento están tratando de utilizar métodos probabilísticos para determinar si se trata de inteligencia artificial.» Como se puede ver, después de analizar muchos de estos métodos, los mejores resultan ser muy inexactos».

Digimarc, fundada en 1994, proporciona marcas de agua digitales para identificar y proteger activos digitales y propietarios de derechos de autor. Las marcas de agua digitales son uno de los métodos más propuestos para identificar falsificaciones profundas, y empresas como Google están explorando este enfoque.

En la conferencia Google Cloud Next celebrada en San Francisco, Sundar Pichai, CEO de Alphabet y Google, demostró las capacidades de marca de agua de la plataforma Vertix AI de Google.

Pichai declaró: «Utilizando la tecnología proporcionada por Google Deepmind, las imágenes creadas por Vertex AI pueden llevar marcas de agua de forma imperceptible para el ojo humano, sin comprometer la calidad de la imagen.»

Como estrategia, sin embargo, la marca de agua tiene una serie de inconvenientes. Según McCormack, para que las marcas de agua impidan las falsificaciones de IA profunda, todas tendrían que utilizar el mismo método para mostrar si han sido generadas por IA o son reales.

El problema de que la IA generativa utilice únicamente marcas de agua es que no todos los motores de IA generativa las utilizan». «Cualquier sistema de autenticación, a menos que sea ubicuo, es inútil si sólo pone marcas de agua en un sentido o en otro».

Dado que los generadores de imágenes de IA recopilan imágenes disponibles públicamente de Internet y las redes sociales, otros expertos recomiendan utilizar «píldoras venenosas» adjuntando código para degradar las imágenes en el generador o etiquetando erróneamente los datos.
Deepfake

AI fue creado para hacerse pasar por el presidente estadounidense Joe Biden, el Papa Francisco y el ex presidente Donald Trump. La tecnología de los deepfakes mejora cada día y los detectores de IA juegan una carrera para ponerse al día.

Una amenaza adicional que plantean los deepfakes es el aumento del material de abuso sexual infantil (CSAM) generado por IA. Según un informe publicado en octubre por la Internet Watch Foundation del Reino Unido, la pornografía infantil se está extendiendo rápidamente en línea con modelos de IA de código abierto que pueden utilizarse y distribuirse gratuitamente.

Según la IWF, la pornografía falsa profunda está haciendo cada vez más difícil distinguir las imágenes de niños generadas por IA de las reales, lo que lleva a las fuerzas de seguridad a perseguir fantasmas en lugar de víctimas reales de abusos en línea.

Dan Sexton, director técnico de la Internet Watch Foundation, declaró a TCN: «No estoy seguro de cuántas de estas imágenes son reales. «Nada nos da una respuesta al cien por cien sobre si algo es real o no».

Otra cuestión planteada por McCormack es que muchos modelos de inteligencia artificial del mercado son de código abierto y pueden utilizarse, modificarse y distribuirse sin restricciones.

«Cuando pones tecnología de seguridad en un sistema de código abierto, le pones un candado», afirma. «Pones un candado y al lado hay un plan sobre cómo abrirlo, así que no tiene mucho valor».

A medida que los modelos más grandes, como Stability Diffusion, Mid Journey y Dall-E, mejoren y admitan barreras de defensa más sólidas, los modelos más antiguos que pueden crear CSAM localmente se utilizarán cada vez menos. Además, dijo, será más fácil determinar qué modelo creó una imagen concreta.

«Estas cosas van a ser más difíciles de hacer, se van a volver más de nicho».
Aunque las figuras públicas son los principales objetivos de las falsificaciones de IA profunda, cada vez son más las celebridades de Hollywood que utilizan sus imágenes en estafas y anuncios en línea que utilizan falsificaciones de IA profunda.

La actriz de Hollywood Scarlett Johansson ha declarado que presentará una demanda contra Lisa AI, una empresa que utilizó imágenes generadas por inteligencia artificial de la estrella de Los Vengadores en anuncios para evitar el uso no autorizado de su imagen. El mes pasado, el magnate de YouTube Mr Beast advirtió a sus suscriptores sobre fraudes en Internet utilizando su imagen, e incluso Tom Hanks fue víctima de una campaña de deepfake AI utilizando su imagen.

En septiembre, el Papa Francisco, que ha sido víctima de numerosas estafas de IA, situó la tecnología en el centro de su sermón de celebración de la Jornada Mundial de la Paz. El líder religioso pidió un diálogo abierto sobre la inteligencia artificial y lo que significa para la humanidad.

«Los extraordinarios avances de la inteligencia artificial están teniendo un rápido impacto en la actividad humana, en la vida personal y social, en la política y en la economía», dijo Francisco.

McCormack señaló que a medida que mejoren las herramientas de detección de IA, también lo harán las de generación de deepfakes, lo que dará lugar a un nuevo frente en la carrera armamentística de la inteligencia artificial que comenzó el año pasado con el lanzamiento de ChatGPT.

«La inteligencia artificial generativa no ha creado un problema de deepfake ni de desinformación», afirmó McCormack.

Related Posts

Leave a Comment