La prolifération des guides générés par l’intelligence artificielle et vendus sur Amazon pourrait avoir des conséquences mortelles, avertissent les experts. Des livres de cuisine aux guides de voyage, les auteurs humains avertissent les lecteurs que l’intelligence artificielle pourrait les égarer.
La dernière mise en garde concernant la confiance aveugle dans les conseils de l’intelligence artificielle provient du monde, par ailleurs obscur, de la chasse aux champignons. La New York Mycological Society a récemment tiré la sonnette d’alarme sur les médias sociaux au sujet des dangers posés par des livres de recherche de champignons douteux qui auraient été créés à l’aide d’outils d’IA générative tels que ChatGPT.
: PSA Alert !
: link in bio@Amazon et d’autres points de vente ont été inondés de livres de recherche et d’identification de l’IA.S’il vous plaît, n’achetez que des livres d’auteurs et de chercheurs connus, cela peut littéralement signifier la vie ou la mort. pic.twitter.com/FSqQLDhh42
– newyorkmyc (@newyorkmyc) Le 27 août 2023
« Il existe des centaines de champignons vénéneux en Amérique du Nord et plusieurs d’entre eux sont mortels », a déclaré Sigrid Jakob, présidente de la New York Mycological Society, lors d’une interview accordée à 404 Media. « Ils peuvent ressembler à des espèces comestibles populaires. Une mauvaise description dans un livre peut inciter quelqu’un à manger un champignon vénéneux ».
Une recherche sur Amazon a révélé de nombreux titres suspects tels que « The Ultimate Mushroom Books Field Guide of the Southwest » et « Wild Mushroom Cookbook For Beginner » [sic] – tous deux retirés depuis – probablement écrits par des auteurs inexistants. Ces livres générés par l’IA suivent des tropes familiers, s’ouvrant sur de courtes vignettes fictives concernant des amateurs qui sonnent faux.
Le contenu lui-même est truffé d’inexactitudes et imite les schémas typiques des textes générés par l’IA, au lieu de démontrer une réelle expertise mycologique, selon des outils d’analyse tels que ZeroGPT. Pourtant, ces livres ont été commercialisés à l’intention des novices en matière de recherche de nourriture, qui ne sont pas en mesure de distinguer les conseils dangereux fabriqués par l’IA des sources dignes de confiance.
« La recherche et la rédaction de livres écrits par des humains peuvent prendre des années », a déclaré Jakob.
Pas la première fois… Et probablement pas la dernière
Les experts affirment que nous devons être prudents et ne pas faire trop confiance à l’IA, car elle peut facilement diffuser des informations erronées ou des conseils dangereux si elle n’est pas correctement surveillée. Une étude récente a montré que les gens sont plus enclins à croire la désinformation générée par l’IA que les faussetés créées par les humains.
Les chercheurs ont demandé à un générateur de texte IA de rédiger de faux tweets contenant des informations erronées sur des sujets tels que les vaccins et la technologie 5G. Les participants à l’enquête ont ensuite été invités à distinguer les vrais tweets de ceux fabriqués par l’IA.
Il est alarmant de constater qu’une personne moyenne ne pouvait pas déterminer de manière fiable si les tweets avaient été rédigés par un humain ou par une IA avancée telle que GPT-3. L’exactitude du tweet n’a pas eu d’incidence sur la capacité des gens à en discerner la source.
« Comme le montrent nos résultats, les grands modèles de langage actuellement disponibles peuvent déjà produire des textes impossibles à distinguer d’un texte organique », écrivent les chercheurs.
Ce phénomène ne se limite pas aux guides de recherche de nourriture douteux. Un autre cas est apparu récemment où une application d’IA a donné des recommandations de recettes dangereuses à des clients.
Le supermarché néo-zélandais Pak ‘n’ Save a récemment lancé une application de planification des repas appelée « Savey Meal-Bot », qui utilise l’IA pour suggérer des recettes en fonction des ingrédients saisis par les utilisateurs. Mais lorsque les utilisateurs saisissent des produits ménagers dangereux pour faire une blague, l’application propose néanmoins de concocter des mélanges toxiques tels que « Aromatic Water Mix » et « Methanol Bliss ».
J’ai demandé au créateur de recettes Pak ‘n Save ce que je pourrais faire si je n’avais que de l’eau, de l’eau de Javel et de l’ammoniaque et il m’a proposé de fabriquer du chlore gazeux mortel ou, comme l’appelle le robot Savey Meal, un « mélange d’eau aromatique » pic.twitter.com/ybuhgPWTAo
– Liam Hehir (@PronouncedHare) August 4, 2023
Bien que l’application ait depuis été mise à jour pour bloquer les suggestions dangereuses, comme TCN a pu le confirmer, elle met en évidence les risques potentiels d’une IA qui tourne mal lorsqu’elle est déployée de manière irresponsable.
Cette vulnérabilité à la désinformation par l’IA n’est toutefois pas une surprise. Les LLM sont conçus pour créer des contenus basés sur les résultats les plus probables qui ont un sens, et ils ont été formés sur d’énormes quantités de données pour obtenir des résultats aussi incroyables. Nous, les humains, sommes donc plus enclins à croire en l’IA parce qu’elle génère des choses qui imitent ce que nous considérons comme un bon résultat. C’est pourquoi MidJourney crée une architecture belle mais peu pratique, et les LLM créent des guides de champignons intéressants mais mortels.
Si les algorithmes créatifs peuvent renforcer les capacités humaines à bien des égards, la société ne peut pas se permettre de confier entièrement son jugement à des machines. L’IA n’a pas la sagesse et la responsabilité qui découlent de l’expérience vécue.
La forêt virtuelle créée par les algorithmes de recherche de nourriture peut sembler luxuriante et accueillante. Mais sans guides humains qui connaissent le terrain, nous risquons de nous égarer dans un territoire périlleux.