Home » Encre invisible : des chercheurs ont examiné les faiblesses des filigranes dans les contenus générés par l’IA.

Encre invisible : des chercheurs ont examiné les faiblesses des filigranes dans les contenus générés par l’IA.

by Patricia

La propagation rampante des « deepfakes » pose des risques importants – de la création d’images de mineurs nus aux promotions frauduleuses utilisant des « deepfakes » de célébrités, la capacité à distinguer le contenu généré par l’IA (AIGC) du contenu généré par l’homme n’a jamais été aussi cruciale.

L’une des méthodes d’identification de ce type de contenu est le

Watermark, une mesure anti-contrefaçon courante que l’on trouve dans les documents et l’argent, avec l’ajout d’informations qui aident à distinguer une image générée par l’IA d’une image non générée par l’intelligence artificielle. Toutefois, des recherches récentes ont conclu que des méthodes de filigrane simples ou même sophistiquées pourraient ne pas être suffisantes pour éviter les risques associés au fait de faire passer du matériel créé par l’IA pour du matériel fabriqué par l’homme.

L’étude a été menée par une équipe de chercheurs de l’université technologique de Nanyang, du S-Lab, de la NTU, de l’université de Chongqing, de Shannon.AI et de l’université de Zhejiang.

L’un des auteurs, Li Guanlin, a déclaré à TCN que « le filigrane peut aider les gens à savoir si le contenu est créé par l’IA ou par des humains ». Toutefois, il a ajouté que « si le filigrane sur l’AIGC est facile à enlever ou à falsifier, en ajoutant le filigrane, nous pouvons arbitrairement convaincre les autres que l’œuvre d’art est faite par l’IA, ou que l’AIGC est fait par des humains en enlevant le filigrane ».

Le document explore plusieurs vulnérabilités des méthodes actuelles de filigrane.

« Les systèmes de filigrane pour l’AIGC sont vulnérables aux attaques d’un adversaire qui peut supprimer le filigrane sans connaître la clé secrète », indique le rapport. Cette vulnérabilité a des implications dans le monde réel, en particulier en cas de désinformation ou d’utilisation malveillante de contenus générés par l’IA.

« Si des utilisateurs malveillants diffusent de fausses images de célébrités générées par l’IA après avoir supprimé les filigranes, il est impossible de prouver que ces images ont été générées par l’IA, car nous ne disposons pas de suffisamment de preuves », a déclaré M. Li à TCN.

M. Li et son équipe ont mené une série d’expériences pour tester la robustesse et l’intégrité des méthodes actuelles de filigrane sur les contenus générés par l’IA. Ils ont utilisé différentes techniques pour supprimer ou falsifier les filigranes et ont évalué la facilité et l’efficacité de chaque méthode. Les résultats ont systématiquement montré qu’il est relativement facile de perturber les filigranes.

Procédure d'attaque utilisée dans l'étude. Image : Arvix

Procédure d’attaque utilisée dans l’étude. Image : Arvix


En outre, ils ont évalué l’impact potentiel de ces vulnérabilités dans le monde réel, en particulier dans des scénarios impliquant la désinformation ou l’utilisation malveillante de contenu généré par l’IA. Les résultats cumulés de ces expériences et analyses ont conduit à la conclusion qu’il est urgent de mettre en place des mécanismes de filigrane plus robustes.

Bien que des entreprises comme OpenAI aient annoncé qu’elles avaient mis au point des méthodes permettant de détecter les contenus générés par l’IA avec une précision de 99 %, le défi global reste entier. Les méthodes d’identification actuelles, telles que les métadonnées et les filigranes invisibles, ont leurs limites.

Li suggère que « pour protéger l’AIGC, il est préférable de combiner certaines méthodes cryptographiques, telles que les signatures numériques, avec les systèmes de filigrane existants », bien que la mise en œuvre exacte reste incertaine.

D’autres chercheurs ont proposé une approche plus extrême. Comme TCN l’a récemment rapporté, une équipe du MIT a proposé de transformer les images en « poison » pour les modèles d’intelligence artificielle. Si une image « empoisonnée » était utilisée comme entrée dans un ensemble de données de formation, le modèle qui en résulterait donnerait de mauvais résultats parce qu’il contiendrait des détails qui ne sont pas visibles à l’œil humain mais qui ont un impact majeur sur le processus de formation. Ce serait comme un filigrane mortel qui tuerait le modèle formé.

Les progrès rapides de l’IA, soulignés par Sam Altman, PDG d’OpenAI, laissent entrevoir un avenir où les processus de pensée naturels de l’IA pourront refléter la logique et l’intuition humaines. Avec de telles avancées, le besoin de mesures de sécurité robustes telles que le filigrane devient encore plus pressant.

Li estime que « le filigrane et la gestion du contenu sont nécessaires parce qu’ils n’affectent pas vraiment les utilisateurs ordinaires », mais le conflit entre les créateurs et les détracteurs demeure. « Ce sera toujours le jeu du chat et de la souris…. C’est pourquoi nous devons constamment mettre à jour nos systèmes de filigrane ».

Related Posts

Leave a Comment