Home » D’un “faible taux de précision” à une réussite de 99 % : Le nouvel outil d’OpenAI peut-il détecter les deepfakes ?

D’un « faible taux de précision » à une réussite de 99 % : Le nouvel outil d’OpenAI peut-il détecter les deepfakes ?

by Tim

OpenAI, pionnière dans le domaine de l’IA générative, relève le défi de la détection des images truquées dans un contexte où les contenus trompeurs se répandent de plus en plus sur les médias sociaux. Lors de la conférence Tech Live du Wall Street Journal, qui s’est tenue récemment à Laguna Beach, en Californie, Mira Murati, directrice de la technologie de l’entreprise, a dévoilé un nouveau détecteur de deepfake.

Selon Mira Murati, le nouvel outil d’OpenAI est fiable à 99 % lorsqu’il s’agit de déterminer si une image a été produite à l’aide de l’IA.

Les images générées par l’IA peuvent aller de créations légères, comme le pape François portant un manteau bouffant Balenciaga, à des images trompeuses qui peuvent causer des dégâts financiers. Le potentiel et les pièges de l’IA sont évidents. À mesure que ces outils deviennent plus sophistiqués, la distinction entre ce qui est réel et ce qui est généré par l’IA s’avère être un défi.

Bien que la date de sortie de l’outil reste confidentielle, son annonce a suscité un vif intérêt, en particulier à la lumière des projets antérieurs d’OpenAI.

En janvier 2022, l’entreprise a dévoilé un classificateur de texte censé distinguer les écrits humains des textes générés par des machines à partir de modèles tels que ChatGPT. Mais en juillet, OpenAI a discrètement fermé l’outil, en publiant une mise à jour indiquant que le taux d’erreur était inacceptable. Leur classificateur a incorrectement étiqueté un texte humain authentique comme étant généré par l’IA dans 9 % des cas.

Si l’affirmation de Murati est vraie, il s’agirait d’un moment important pour l’industrie, car les méthodes actuelles de détection des images générées par l’IA ne sont généralement pas automatisées. En général, les enthousiastes se fient à leur intuition et se concentrent sur les défis bien connus qui entravent l’IA générative, comme la représentation des mains, des dents et des motifs. La différence entre les images générées par l’IA et les images modifiées par l’IA reste floue, surtout si l’on essaie d’utiliser l’IA pour détecter l’IA.

L’OpenAI ne se contente pas de détecter les images d’IA nuisibles, elle établit également des garde-fous pour censurer son propre modèle, au-delà même de ce qui est énoncé publiquement dans ses lignes directrices en matière de contenu.

Comme l’a constaté TCN, l’outil Dall-E d’OpenAI semble être configuré pour modifier les invites sans préavis et générer discrètement des erreurs lorsqu’on lui demande de produire des résultats spécifiques, même s’ils sont conformes aux directives publiées et évitent de créer des contenus sensibles impliquant des noms spécifiques, des styles d’artistes et des ethnies.

Partie de ce qui pourrait être l'invite de Dall-E 3 dans ChatGPT.

Partie de ce qui pourrait être l’invite de Dall-E 3 dans ChatGPT.


La détection des deepfakes n’est pas seulement l’affaire d’OpenAI. DeepMedia, qui travaille spécifiquement avec des clients gouvernementaux, est l’une des entreprises qui développent cette capacité.

De grands noms comme Microsoft et Adobe se retroussent également les manches. Ils ont introduit ce que l’on appelle un système de « filigrane d’IA ». Ce mécanisme, piloté par la Coalition for Content Provenance and Authenticity (C2PA), incorpore un symbole « cr » distinct à l’intérieur d’une bulle de dialogue, signalant un contenu généré par l’IA. Ce symbole est censé agir comme une balise de transparence, permettant aux utilisateurs de discerner l’origine du contenu.

Cependant, comme toute technologie, elle n’est pas infaillible. Il existe une faille dans laquelle les métadonnées portant ce symbole peuvent être supprimées. Toutefois, comme antidote, Adobe a également mis au point un service en nuage capable de récupérer les métadonnées perdues, garantissant ainsi la présence du symbole. Ce service n’est pas non plus difficile à contourner.

À l’heure où les autorités de régulation s’apprêtent à criminaliser les « deepfakes », ces innovations ne sont pas seulement des prouesses technologiques, mais aussi des nécessités sociétales. Les récentes initiatives d’OpenAI et de sociétés telles que Microsoft et Adobe soulignent l’effort collectif visant à garantir l’authenticité à l’ère numérique. Même si ces outils sont améliorés pour offrir un degré d’authenticité plus élevé, leur mise en œuvre effective dépend d’une adoption généralisée. Cela concerne non seulement les géants de la technologie, mais aussi les créateurs de contenu, les plateformes de médias sociaux et les utilisateurs finaux.

Avec l’évolution rapide de l’IA générative, les détecteurs ont encore du mal à différencier l’authenticité des textes, des images et des sons. Pour l’instant, le jugement humain et la vigilance constituent notre meilleure ligne de défense contre l’utilisation abusive de l’IA. Toutefois, les humains ne sont pas infaillibles. Pour trouver des solutions durables, il faudra que les leaders technologiques, les législateurs et le public travaillent ensemble pour naviguer dans cette nouvelle frontière complexe.

Related Posts

Leave a Comment