Home » L’intelligence artificielle essaie littéralement de vous tuer avec cette application de supermarché

L’intelligence artificielle essaie littéralement de vous tuer avec cette application de supermarché

by Tim

L’application d’un supermarché néo-zélandais, dotée d’une intelligence artificielle et conçue pour aider les clients à utiliser les restes de manière créative, s’est égarée, suggérant joyeusement des recettes d’armes chimiques toxiques au cours du dîner familial.

Pak ‘n’ Save a lancé son application « Savey Meal-bot » à la fin du mois dernier, la présentant comme un moyen high-tech de préparer des repas économiques en période de crise économique. Après avoir entré les ingrédients dont ils disposent, les utilisateurs reçoivent une recette générée automatiquement par la technologie d’intelligence artificielle de l’application, accompagnée de commentaires enthousiastes tels que « Délicieux ! » et « Miam ! »

« Dites-nous quels sont les restes de nourriture que vous avez, et les techniciens vous diront que vous obtiendrez une nouvelle recette ! » Pak ‘n’ Save déclare sur l’écran d’accueil de son robot : « Utilisons tous ces restes et ne gaspillons pas. C’est ma technologie de bâton la plus savante à ce jour ! »

Mais les gens aiment être créatifs et lorsque les clients ont commencé à entrer des objets ménagers au hasard dans l’application, celle-ci a commencé à proposer des recettes telles que le « mélange d’eau aromatique » (également connu sous le nom de gaz de chlore mortel), les « sandwichs au pain empoisonné » (sandwichs au poison de fourmis et à la colle) et le « bonheur au méthanol » (un pain perdu à base de térébenthine). Ce n’est pas vraiment le repas du dimanche…

« Nous sommes déçus qu’une petite minorité ait essayé d’utiliser l’outil de manière inappropriée », a déclaré un porte-parole de Pak ‘n’ Save au Guardian, ajoutant que les conditions générales de l’application exigent que les utilisateurs soient âgés de plus de 18 ans. L’entreprise prévoit de « continuer à affiner nos contrôles » afin d’améliorer la sécurité.

Pak ‘n’ Save a d’abord fait la publicité de son application de planification de repas avec le slogan suivant : « Dites-nous quels sont les restes que vous avez préparés » : « Dites-nous quels sont vos restes, et les techniciens vous donneront une nouvelle recette ! Mais l’application était également accompagnée d’une clause de non-responsabilité indiquant qu’elle ne garantissait pas que les recettes seraient « propres à la consommation ».

Lorsque TCN a essayé l’application en utilisant des ingrédients normaux, elle a fonctionné comme annoncé. Mais en entrant quelque chose de clairement dangereux comme « shampoing » ou « déboucheur de canalisations », l’application bloque la requête.


Sauf s’il s’agit d’une correction de dernière minute, cela suggère que les utilisateurs farceurs ont trouvé un moyen de tromper l’IA en lui faisant croire que les objets dangereux étaient de la nourriture, probablement en les décrivant de manière créative. Cette technique, également connue sous le nom de « jailbreaking », a été utilisée pour amener ChatGPT et d’autres chatbots IA à aller à l’encontre de leurs directives.

La prochaine fois que vous ferez preuve d’un peu trop de créativité avec des restes, préférez les livres de cuisine aux applications d’IA défaillantes. Ce « riz surprise » pourrait être un plus grand choc pour le système que prévu.

Related Posts

Leave a Comment