Home » La désinformation par l’IA pourrait bouleverser les élections de 2024 – voici comment l’OpenAI prévoit de la combattre

La désinformation par l’IA pourrait bouleverser les élections de 2024 – voici comment l’OpenAI prévoit de la combattre

by Tim

La menace de l’intelligence artificielle pour la démocratie étant une préoccupation majeure pour les décideurs politiques et les électeurs du monde entier, OpenAI a présenté lundi son plan pour aider à garantir la transparence du contenu généré par l’IA et améliorer la fiabilité des informations relatives au vote avant les élections de 2024.

Après le lancement de GPT-4 en mars, l’IA générative et son utilisation abusive potentielle, y compris les deepfakes générés par l’IA, sont devenus un élément central de la conversation sur l’ascension fulgurante de l’IA en 2023. En 2024, nous pourrions assister à de graves conséquences de ces fausses informations générées par l’IA lors d’élections importantes, notamment la course à la présidence des États-Unis.

« Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail sur la sécurité de la plateforme en diffusant des informations précises sur le vote, en appliquant des politiques mesurées et en améliorant la transparence », a déclaré OpenAI dans un billet de blog.

OpenAI a ajouté qu’elle « rassemble l’expertise de nos systèmes de sécurité, des renseignements sur les menaces, des équipes juridiques, d’ingénierie et de politique pour enquêter rapidement et traiter les abus potentiels. « 

En août, la Commission électorale fédérale américaine a déclaré qu’elle allait examiner une pétition visant à interdire les publicités de campagne générées par l’IA. Le commissaire de la FEC, Allen Dickerson, a déclaré : « Il y a de sérieuses préoccupations concernant le premier amendement qui se cachent à l’arrière-plan de cet effort ».

Pour les clients américains de ChatGPT, OpenAI a déclaré qu’elle dirigerait les utilisateurs vers le site web non partisan CanIVote.org lorsqu’on leur posera « certaines questions procédurales liées aux élections ». L’entreprise affirme que la mise en œuvre de ces changements influencera son approche à l’échelle mondiale.

« Nous sommes impatients de continuer à travailler avec nos partenaires et d’apprendre d’eux afin d’anticiper et de prévenir les abus potentiels de nos outils à l’approche des élections mondiales de cette année », a ajouté l’entreprise.

Dans ChatGPT, OpenAI a déclaré qu’elle empêche les développeurs de créer des chatbots qui prétendent être de vraies personnes ou des institutions telles que des fonctionnaires et des bureaux gouvernementaux. Sont également interdites, selon l’OpenAI, les applications qui visent à empêcher les gens de voter, notamment en décourageant le vote ou en présentant de manière erronée les personnes habilitées à voter.

Les deepfakes, images, vidéos et sons falsifiés générés par l’IA, sont devenus viraux l’année dernière, plusieurs d’entre eux mettant en scène le président américain Joe Biden, l’ancien président Donald Trump et même le pape François, devenant le point de mire des images partagées sur les médias sociaux.

Pour empêcher que son générateur d’images Dall-E 3 ne soit utilisé dans des campagnes de deepfake, OpenAI a déclaré qu’elle mettrait en œuvre les certificats de contenu de la Coalition for Content Provenance and Authenticity qui ajoutent une marque ou une « icône » à une image générée par l’IA.

« Nous expérimentons également un classificateur de provenance, un nouvel outil pour détecter les images générées par Dall-E », a déclaré OpenAI. « Nos tests internes ont donné des résultats prometteurs, même lorsque les images ont été soumises à des types de modifications courants.

Le mois dernier, le pape François a appelé les dirigeants mondiaux à adopter un traité international contraignant pour réglementer l’IA.

« La dignité inhérente à chaque être humain et la fraternité qui nous lie en tant que membres de l’unique famille humaine doivent sous-tendre le développement des nouvelles technologies et servir de critères indiscutables pour les évaluer avant qu’elles ne soient employées, afin que le progrès numérique puisse se produire dans le respect de la justice et contribuer à la cause de la paix », a déclaré le pape François.

Pour lutter contre la désinformation, OpenAI a déclaré que ChatGPT commencera à fournir des rapports d’actualité en temps réel dans le monde entier, y compris des citations et des liens.

La transparence sur l’origine des informations et l’équilibre des sources d’information peut aider les électeurs à mieux évaluer les informations et à décider eux-mêmes de ce en quoi ils peuvent avoir confiance », a déclaré l’entreprise.

L’été dernier, OpenAI a fait don de 5 millions de dollars à l’American Journalism Project. La semaine précédente, OpenAI a conclu un accord avec l’Associated Press pour permettre au développeur d’IA d’accéder aux archives d’articles de presse de l’agence de presse mondiale.

Les commentaires d’OpenAI sur l’attribution dans les reportages d’actualité interviennent alors que la société fait l’objet de plusieurs poursuites en matière de droits d’auteur, notamment de la part du New York Times. En décembre, le Times a poursuivi OpenAI et Microsoft, le plus grand investisseur d’OpenAI, alléguant que des millions de ses articles avaient été utilisés pour entraîner ChatGPT sans autorisation.

« OpenAI et Microsoft ont bâti une entreprise évaluée à des dizaines de milliards de dollars en s’emparant sans autorisation des œuvres combinées de l’humanité », indique le procès. « En formant leurs modèles, les défendeurs ont reproduit des documents protégés par le droit d’auteur pour exploiter précisément ce que la loi sur le droit d’auteur a été conçue pour protéger : les éléments d’expression protégeables qu’ils contiennent, tels que le style, le choix des mots, l’arrangement et la présentation des faits ».

OpenAI a qualifié le procès du New York Times de « sans fondement », alléguant que la publication avait manipulé ses messages-guides pour que le chatbot génère des réponses semblables à celles des articles du Times.

Related Posts

Leave a Comment