Home » Una empresa que ayuda a los gobiernos a detectar falsificaciones de inteligencia artificial

Una empresa que ayuda a los gobiernos a detectar falsificaciones de inteligencia artificial

by Thomas

Si crees lo que ves en Internet, pensarías que el presidente Biden ha convocado un servicio militar obligatorio nacional y que tanto hombres como mujeres serán seleccionados para luchar en la guerra de Ucrania. Pero en realidad se trata de una mentira creada por un creador malicioso de vídeos deepfake.

Los actores maliciosos utilizan la inteligencia artificial para crear vídeos haciéndose pasar por políticos, celebridades y personajes famosos. En el caso menos peligroso, obtenemos imágenes tontas y obviamente falsas que parecen presidentes de EE.UU. jugando juntos a Minecraft, pero en el peor de los casos, esta tecnología puede suponer una amenaza real para la seguridad nacional.

En 2018, el oscarizado cómico Jordan Peele lanzó una advertencia al público en forma de uno de los primeros fakes profundos que se difundieron. En el vídeo, Barack Obama pronuncia frases que van mucho más allá de sus comentarios típicos, incluida la inesperada frase «Stay woke, bitches!».

Rijul Gupta, licenciado en Yale, se topó con el vídeo y quedó impresionado al instante por las posibilidades de la inteligencia artificial. Un sinfín de posibilidades, tanto positivas como negativas, empezaron a rondarle por la cabeza, recordaba en una entrevista reciente con TCN, y se dio cuenta de que el mundo necesitaba una empresa con un «núcleo ético» que prestara atención a este espacio.

Como resultado, cofundó DeepMedia con Emma Brown, licenciada en Yale y experta en lingüística, una empresa dedicada a sacar a la luz las tecnologías deepfake.

DeepMedia tiene dos productos: DubSync, un servicio de traducción y doblaje asistido por inteligencia artificial, y DeepIdentify.AI, un servicio de detección de falsificaciones profundas. Este último es su principal oferta, que recientemente le ha valido un contrato de tres años y 25 millones de dólares con el Departamento de Defensa de Estados Unidos (DoD), así como otros contratos no revelados con fuerzas aliadas.

«Desde el principio supimos que queríamos trabajar con gobiernos, tanto nacionales como extranjeros, y con organizaciones grandes y fiables como las Naciones Unidas, de las que ahora somos socios», explica Gupta a TCN. «Queríamos ayudar a garantizar que la ética -tanto descendente como ascendente- estuviera en el centro de la IA».

Según Gupta, DeepMedia fue contratada inicialmente por el Ministerio de Defensa para formar a los empleados del departamento sobre cómo podría utilizarse la tecnología para cometer fraudes y crear desinformación política. Desde entonces, DeepMedia ha firmado otros contratos, por ejemplo con las Fuerzas Aéreas de Estados Unidos, para utilizar su tecnología para «garantizar la seguridad de ciudadanos estadounidenses y extranjeros».

¿Cómo funciona?
DeepIdentity.AI examina imágenes o vídeos en busca de incoherencias e imprecisiones que indiquen que la imagen o el vídeo son falsos. Suelen ser signos como una boca temblorosa de forma antinatural o sombras que son físicamente imposibles.

«Podemos rastrear el aspecto y el movimiento de una cara y luego mapearlo», explica a TCN Emma Brown, directora de operaciones de DeepMedia. «Podemos determinar cuál es el movimiento normal de una cara».

Una foto puede procesarse en cinco segundos, mientras que un vídeo de dos minutos «se procesará completamente de principio a fin con análisis detallados de caras, voces [y] acentos» en menos de cinco minutos, explicó. El usuario final sabrá cuánta manipulación se ha detectado y en qué parte del vídeo o la imagen se encuentra.

«¿Recuerdas el falso Papa que se hizo viral? Pudimos verificar qué partes del vídeo eran del Papa real y qué partes eran falsas», dijo Brown. «Hubo algunos momentos que nunca podrían suceder en la vida real. Esos, en cuanto a sombras y ángulos, son los que llamaron la atención de nuestros detectores».

Gracias a la gran cantidad de datos de entrenamiento, el modelo es capaz de detectar falsificaciones con «más del 95 por ciento de precisión», dijo. Por supuesto, DeepMedia aprende de las falsificaciones encontradas en la web, pero lo verdaderamente destacable de su conjunto de datos es su interacción con DubSync, un servicio de traducción y doblaje.

«Nuestra plataforma DubSync es esencialmente un generador de falsificaciones profundas. Tenemos que crear un generador para saber qué es un buen deepfake», explica Brown. «Y de eso depende nuestro sistema de detección de deepfakes».

Brown afirma que DubSync genera deepfakes «unos seis o doce meses antes que los demás» para garantizar que la empresa dispone de los datos más actualizados para el entrenamiento. Así se evita que los atacantes creen falsificaciones más avanzadas de lo que su inteligencia artificial puede reconocer. Pero mantener el liderazgo es una batalla constante.

«Sin duda es el juego del gato y el ratón. Cualquiera que pretenda lo contrario no está operando realmente en este espacio», afirma Brown. «Confiamos en poder seguir detectando, especialmente con nuestra investigación y desarrollo en curso».

Aunque DeepIdentify está disponible a través de la API y otros paquetes de DeepMedia, cuando las instituciones gubernamentales y financieras contratan a la empresa, requieren una funcionalidad más avanzada.

«Tenemos herramientas de detección de defectos, pero el Gobierno de EE.UU. y el Ministerio de Defensa son los mejores del mundo en lo que hacen. Exigen no sólo lo mejor del mundo, sino más que lo mejor del mundo», explica Gupta. «[Estamos] realmente investigando, desarrollando nuevas herramientas y nuevas soluciones».

¿Por qué debería importarnos?
En su forma actual, la tecnología deepfake es más conocida por los vídeos de parodias tontas, las parodias poco realistas de presidentes y la pornografía dañina. Sin embargo, la tecnología también puede utilizarse para crear tensiones reales entre naciones, que pueden provocar víctimas, atentados terroristas y otras reacciones dañinas o destructivas.

«Los deep fakes pueden utilizarse como parte de operaciones de información para influir en el curso de una guerra, como en marzo de 2022, cuando se difundió un deep fake en el que supuestamente el presidente ucraniano Zelensky ordenaba a sus tropas que se rindieran», explicó a TCN la abogada estadounidense especializada en seguridad nacional y analista geopolítica Irina Zuckerman. «Él negó la autenticidad de ese video y proporcionó pruebas, y ese video no estaba particularmente bien hecho – pero los videos futuros pueden ser así».

Con las elecciones estadounidenses de 2024 a la vuelta de la esquina, la tecnología «deepfakes» se ha convertido en el último problema que podría afectar al resultado de la votación, similar al escándalo de Cambridge Analytica en 2018.

«Los adversarios del Estado o individuos con motivaciones políticas pueden publicar vídeos falsificados de funcionarios electos u otras figuras públicas haciendo comentarios provocativos o comportándose de manera inapropiada», explicó Zuckerman. «Tales incidentes socavan la confianza pública, impactan negativamente en el debate público, son divisivos y pueden ser utilizados para alterar los resultados electorales u otros procesos críticos de toma de decisiones.»

La interferencia puede no ser tan sencilla. De hecho, las falsedades pueden utilizarse para negar la realidad e intentar contrarrestar la información y los hechos.

«También está la cuestión del posible ‘dividendo del mentiroso’, una forma de desinformación en la que las falsificaciones pueden utilizarse para negar la autenticidad del contenido original, creando confusión adicional a expensas de la seguridad y desacreditando fuentes y activos favorables a Estados Unidos, analistas, gobiernos aliados o incluso funcionarios», afirma Zuckerman.

Por eso, la empresa afirma estar trabajando con el ecosistema del Departamento de Defensa de Estados Unidos, aliados y socios en Europa y Asia, y una «empresa de medios sociales muy grande» no identificada, para ayudar a detectar las falsificaciones que circulan.

Sólo en el último año se ha producido una rápida evolución de la tecnología y las herramientas de inteligencia artificial generativa. A medida que avance la tecnología de deepfakes, será cada vez más difícil detectar vídeos fraudulentos a simple vista, y ahí es donde empresas como DeepMedia pretenden ayudar a mantener a la gente segura e informada.

Related Posts

Leave a Comment