Home » Découvrez l’entreprise qui aide les gouvernements à détecter les “Deepfakes” de l’IA

Découvrez l’entreprise qui aide les gouvernements à détecter les « Deepfakes » de l’IA

by Patricia

Si vous croyez ce que vous voyez sur Internet, vous pourriez penser que le président Biden a appelé à la conscription nationale et que des hommes et des femmes seront sélectionnés pour participer à la guerre en Ukraine. Mais il s’agit en fait d’un mensonge fabriqué par un créateur malveillant de vidéos « deepfake ».

Les acteurs malveillants utilisent l’intelligence artificielle pour créer des vidéos imitant des hommes politiques, des célébrités et des personnalités. Dans le cas le moins dommageable, nous obtenons des images farfelues et manifestement truquées de ce qui semble être des présidents américains jouant ensemble à Minecraft, mais dans le pire des cas, cette technologie pourrait constituer une véritable menace pour la sécurité nationale.

DeepMedia a deux produits : DubSync, un service de traduction et de doublage par IA, et DeepIdentify.AI, un service de détection des deepfakes. Ce dernier est leur principale offre, ce qui leur a permis d’obtenir récemment un contrat de trois ans d’une valeur de 25 millions de dollars avec le ministère américain de la défense et d’autres contrats non divulgués avec des forces alliées.

« Nous savions dès le départ que nous voulions travailler avec des gouvernements, nationaux et étrangers, ainsi qu’avec de grandes institutions de confiance comme les Nations unies, dont nous sommes désormais partenaires », a déclaré M. Gupta à TCN. « Nous voulions contribuer à faire en sorte que l’éthique soit intégrée dans l’épine dorsale de l’IA, de haut en bas et de bas en haut.

Au départ, DeepMedia a été engagée par le DoD pour l’informer sur la manière dont la technologie pouvait être utilisée pour commettre des fraudes et créer de la désinformation politique, a indiqué M. Gupta. Depuis, DeepMedia a signé d’autres contrats, notamment avec l’armée de l’air américaine, afin d’utiliser sa technologie pour « assurer la sécurité des citoyens américains et internationaux ».

Comment cela fonctionne-t-il ?
DeepIdentity.AI examine une photo ou une vidéo et recherche les incohérences ou les inexactitudes qui indiquent que l’image ou la séquence est un « deepfake ». Parmi les signes révélateurs les plus courants, citons une bouche qui bouge de façon anormale ou des ombres qui sont physiquement impossibles.

« Nous sommes en mesure de déterminer à quoi devrait ressembler un visage et comment il devrait bouger, puis nous le cartographions », explique Emma Brown, directrice de l’exploitation de DeepMedia, à TCN. « Nous sommes en mesure d’identifier les mouvements normaux d’un visage.

Une photo peut être traitée en cinq secondes, tandis qu’une vidéo de deux minutes est « traitée de bout en bout avec une analyse détaillée des visages, des voix [et] des accents » en moins de cinq minutes, a-t-elle expliqué. L’utilisateur final est ensuite informé du degré de manipulation détecté et de l’endroit où il se trouve dans la vidéo ou l’image.

« Vous vous souvenez de ce faux pape qui est devenu viral ? Nous avons pu contrôler quelles parties étaient vraiment le pape et quelles parties étaient fausses », a déclaré Mme Brown. « Certaines choses n’auraient jamais pu se produire dans la réalité. Ce sont ces éléments que nos détecteurs ont vraiment marqués, en termes d’ombres et d’angles ».

Le modèle est capable de détecter avec une précision de « plus de 95 % » grâce à ses nombreuses données d’entraînement, a-t-elle affirmé. Bien sûr, DeepMedia examine les deepfakes IA trouvés en ligne, mais ce à quoi l’ensemble de données excelle vraiment, c’est sa synergie avec DubSync, le service de traduction et de doublage.

« Notre plateforme DubSync est essentiellement un générateur de deepfakes. Nous devons construire un générateur pour savoir ce qui fait un bon deepfake », explique M. Brown. « Et c’est ce qui alimente notre détection des deepfakes. « 

Brown affirme que la génération de deepfake de DubSync a « six à douze mois d’avance sur les autres » pour s’assurer que l’entreprise dispose des données les plus avancées pour s’entraîner. Cela permet d’éviter que de mauvais acteurs ne créent des deepfakes plus avancés que ce que leur IA peut détecter. Mais il s’agit d’une bataille constante pour conserver cette avance.

« C’est vraiment un jeu du chat et de la souris. Quiconque prétend le contraire n’est pas vraiment dans l’espace », a déclaré M. Brown. « Nous sommes convaincus que nous pourrons continuer à détecter, en particulier grâce à nos recherches en cours et à l’aspect générationnel des choses.

DeepIdentify est disponible via l’API de DeepMedia et d’autres packages, mais lorsque les gouvernements et les institutions financières s’engageront avec la société, ils auront besoin d’une fonctionnalité plus avancée.

« Nous disposons d’outils de détection des défauts, mais le gouvernement américain, le DoD, sont les meilleurs au monde dans ce qu’ils font. Ils exigent non seulement ce qu’il y a de mieux au monde, mais même plus que ce qu’il y a de mieux », explique M. Gupta. « Nous menons de nouvelles recherches et inventons de nouveaux outils et de nouvelles solutions.

Pourquoi devrions-nous nous en soucier ?
Dans son état actuel, la technologie deepfake est surtout connue pour ses vidéos parodiques ridicules, ses imitations présidentielles irréalistes et sa fausse pornographie nuisible. Mais cette technologie pourrait également être utilisée pour créer de véritables tensions entre les États, ce qui pourrait entraîner des pertes humaines, des attaques terroristes et d’autres réactions nuisibles ou perturbatrices.

Les « deepfakes » peuvent être utilisés dans le cadre d’opérations d’information pour influencer le cours des guerres, comme l’incident de mars 2022 d’un « deepfake » diffusé dans lequel le président ukrainien Zelensky semblait ordonner à ses troupes d’abandonner », a déclaré Irina Tsukerman, avocate américaine spécialisée dans la sécurité nationale et analyste géopolitique, à TCN. « Il a nié l’authenticité de cette vidéo et a fourni des preuves, et cette vidéo n’était pas particulièrement bien réalisée – mais les futures vidéos pourraient l’être. « 

À l’approche des élections américaines de 2024, la technologie deepfake est la dernière préoccupation qui pourrait influencer le vote, à l’instar du scandale Cambridge Analytica de 2018.

« Des ennemis de l’État ou des individus politiquement motivés peuvent publier des vidéos truquées d’élus ou d’autres personnalités publiques faisant des remarques incendiaires ou se comportant de manière inappropriée », explique Tsukerman. « De tels incidents érodent la confiance du public, affectent négativement le débat public, créent des divisions et peuvent être utilisés pour influencer les élections ou d’autres processus décisionnels critiques. »

L’ingérence n’est peut-être pas si simple non plus. En effet, les deepfakes pourraient être utilisés pour nier la réalité et réfuter des informations et des événements factuels.

Il y a aussi la question d’un éventuel « dividende menteur », une forme de désinformation où les deepfakes peuvent être utilisés pour nier l’authenticité du contenu original, brouillant encore plus la sécurité et discréditant les sources et ressources américaines amicales, les analystes, les gouvernements alliés ou même les fonctionnaires », a déclaré M. Tsukerman.

Cette menace pour la sécurité nationale est la raison pour laquelle l’entreprise déclare travailler avec l’écosystème du ministère américain de la défense, les pays alliés et partenaires en Europe et en Asie, ainsi qu’avec une « très grande entreprise de médias sociaux » dont le nom n’a pas été dévoilé, pour aider à détecter les « deepfakes » qui circulent.

Rien qu’au cours de l’année écoulée, la technologie et les outils d’intelligence artificielle générative ont connu une évolution rapide. À mesure que la technologie des deepfakes évolue, il deviendra certainement encore plus difficile de repérer les clips frauduleux à l’œil nu – et c’est exactement ce sur quoi les entreprises de détection comme DeepMedia se concentrent pour assurer la sécurité et l’information du public.

Related Posts

Leave a Comment