Home » Les contenus pédopornographiques générés par l’IA pourraient “submerger” l’internet, prévient un groupe britannique

Les contenus pédopornographiques générés par l’IA pourraient « submerger » l’internet, prévient un groupe britannique

by Patricia

Le groupe britannique Internet Watch Foundation (IWF) tire une nouvelle fois la sonnette d’alarme sur la propagation rapide de matériel pédopornographique généré par l’IA. Dans un nouveau rapport publié mercredi, le groupe a indiqué que plus de 20 254 images d’abus sexuels d’enfants générés par l’IA ont été trouvées sur un seul forum du darkweb en l’espace d’un mois, et qu’un déluge de ces contenus abominables pourrait « submerger » l’internet.

Au fur et à mesure que les générateurs d’images d’IA se perfectionnent, la capacité de créer des répliques réalistes d’êtres humains a progressé à pas de géant. Les générateurs d’images d’IA tels que Midjourney, Runway, Stable Diffusion et Dall-E d’OpenAI ne sont que quelques-unes des plateformes capables de créer des images réalistes.

Ces plateformes basées sur l’informatique en nuage, qui sont largement accessibles au public, ont mis en place des restrictions, des règles et des contrôles importants pour éviter que leurs outils ne soient utilisés par des acteurs malveillants pour créer des contenus abusifs. Mais les adeptes de l’IA cherchent régulièrement des moyens de contourner ces garde-fous.

« Il est important que nous communiquions les réalités de l’IA CSAM à un large public, car nous devons avoir des discussions sur le côté sombre de cette technologie étonnante », a déclaré Susie Hargreaves, PDG de la fondation, dans le rapport.

Disant que son « pire cauchemar » s’était réalisé, l’IWF a déclaré qu’il suivait désormais les cas de CSAM générés par l’IA sur de vraies victimes d’abus sexuels. Le groupe britannique a également mis en évidence des images de célébrités désâgées et manipulées pour apparaître comme des victimes d’abus, ainsi que des photos manipulées d’enfants célèbres.

« Comme s’il ne suffisait pas aux victimes de savoir que leurs abus peuvent être partagés dans un coin sombre de l’internet, elles risquent maintenant d’être confrontées à de nouvelles images d’elles-mêmes en train d’être abusées d’une manière nouvelle et horrible qu’elles n’avaient pas imaginée auparavant », a déclaré M. Hargreaves.

L’un des principaux problèmes posés par la prolifération de CSAM générés par l’IA est qu’ils pourraient détourner les ressources des forces de l’ordre de la détection et de la suppression des abus réels, affirme l’IWF.

Créée en 1996, la fondation est une organisation à but non lucratif qui se consacre à la surveillance de l’internet pour détecter les contenus à caractère sexuel, en particulier ceux qui visent les enfants.

En septembre, l’IWF a averti que des réseaux pédophiles discutaient et échangeaient des conseils sur la création d’images illégales d’enfants à l’aide de modèles d’intelligence artificielle à source ouverte qui peuvent être téléchargés et exécutés localement sur des ordinateurs personnels.

« Les auteurs peuvent télécharger légalement tout ce dont ils ont besoin pour générer ces images, puis produire autant d’images qu’ils le souhaitent, hors ligne, sans possibilité de détection », a déclaré l’IWF.

Le groupe britannique a appelé à une collaboration internationale pour lutter contre le fléau du CSAM, proposant une approche à plusieurs niveaux, notamment la modification des lois pertinentes, l’actualisation de la formation des forces de l’ordre et la mise en place d’une surveillance réglementaire des modèles d’IA.

Pour les développeurs d’IA, l’IWF recommande d’interdire l’utilisation de leur IA pour créer du matériel pédopornographique, de désindexer les modèles correspondants et de donner la priorité à la suppression du matériel pédopornographique de leurs modèles.
Il s’agit d’un problème mondial qui exige que les pays travaillent ensemble et veillent à ce que la législation soit adaptée à l’objectif visé », a déclaré M. Hargreaves dans un communiqué précédemment transmis à TCN, notant que l’IWF a réussi à limiter le matériel pédopornographique dans son pays d’origine.

« Le fait que moins de 1 % des contenus criminels soient hébergés au Royaume-Uni témoigne de nos excellents partenariats avec les forces de police et les agences britanniques, et nous collaborerons activement avec les forces de l’ordre pour lutter contre cette nouvelle tendance alarmante », a ajouté M. Hargreaves. « Nous demandons instamment au premier ministre britannique d’inscrire cette question à l’ordre du jour du sommet mondial sur la sécurité de l’IA qui se tiendra au Royaume-Uni en novembre.

Alors que l’IWF affirme que les démantèlements de forums darkweb hébergeant des CSAM illégaux au Royaume-Uni sont en cours, le groupe a déclaré que le démantèlement pourrait être plus compliqué si le site web est hébergé dans d’autres pays.

De nombreux efforts concertés sont déployés pour lutter contre l’utilisation abusive de l’IA. En septembre, le président de Microsoft, Brad Smith, a suggéré d’utiliser des politiques KYC inspirées de celles employées par les institutions financières pour aider à identifier les criminels qui utilisent des modèles d’IA pour diffuser des informations erronées et commettre des abus.

En juillet, l’État de Louisiane a adopté une loi qui alourdit les peines encourues pour la vente et la possession de pédopornographie générée par l’IA. Selon cette loi, toute personne reconnue coupable d’avoir créé, distribué ou possédé des images illégales de type « deepfake » représentant des mineurs est passible d’une peine obligatoire de cinq à vingt ans d’emprisonnement, d’une amende pouvant aller jusqu’à 10 000 dollars, ou des deux.

En août, le ministère américain de la justice a mis à jour sa page « Citizen’s Guide To U.S. Federal Law On Child Pornography » (Guide du citoyen sur la législation fédérale américaine relative à la pornographie enfantine). En cas de confusion, le ministère de la justice a souligné que les images de pornographie enfantine ne sont pas protégées par le premier amendement et qu’elles sont illégales en vertu de la loi fédérale.

Related Posts

Leave a Comment