Home » Les robots de conversation ne devraient pas être votre thérapeute ou votre ami… Pourtant

Les robots de conversation ne devraient pas être votre thérapeute ou votre ami… Pourtant

by Tim

À l’ère numérique, l’IA est devenue un allié inattendu contre la solitude. Alors que nous sommes de plus en plus immergés dans le monde numérique, l’intelligence artificielle s’apprête à nous offrir de la compagnie et une thérapie psychologique. Mais l’IA peut-elle vraiment remplacer la compagnie humaine ?

Le psychothérapeute Robi Ludwig s’est récemment entretenu avec CBS News en début de semaine sur l’impact de l’IA, en particulier maintenant que les outils d’IA sont devenus un refuge pour une partie des 44 millions d’Américains aux prises avec une solitude importante.

« Nous avons vu que l’IA peut fonctionner avec certaines populations », a-t-elle déclaré, mais elle a ajouté : « nous sommes complexes, et l’IA ne vous aime pas en retour, et nous avons besoin d’être aimés pour ce que nous sommes et ce que nous ne sommes pas ».

L’essor de l’IA comme compagnon souligne notre besoin inhérent d’interaction. Les humains ont tendance à s’associer à n’importe quoi – animaux, dieux ou même IA – comme s’il s’agissait d’une autre personne. C’est dans notre nature, et c’est pourquoi nous ressentons des réactions émotionnelles face à des personnages de fiction dans les films, même si nous savons que ces événements ne sont pas réels.

Les professionnels le savent, mais l’IA a tout de même été utilisée dans le domaine physiologique bien avant que le ChatGPT ne se généralise.

Par exemple, Woebot, un chatbot développé par des psychologues de l’université de Stanford, utilise des techniques de thérapie cognitivo-comportementale (TCC) pour interagir avec les utilisateurs et leur apporter un soutien en matière de santé mentale. Un autre exemple est Replika, un compagnon IA conçu pour apporter un soutien émotionnel. Les utilisateurs peuvent avoir des conversations textuelles avec Replika sur leurs pensées et leurs sentiments, et l’IA utilise l’apprentissage automatique pour répondre de manière positive et compréhensive.

Similaire à l’homme n’est pas humain

Ce lien émotionnel avec l’IA est particulièrement prononcé chez les personnes qui luttent contre la solitude. Pour beaucoup, l’IA offre un semblant de compagnie, une entité numérique avec laquelle interagir lorsque les contacts humains se font rares. Il s’agit d’une tendance à la hausse, de plus en plus de personnes se tournant vers l’IA pour trouver du réconfort et une conversation, avec des résultats variables.

D’un côté, les gens partagent leurs expériences d’utilisation de ChatGPT pour faire face à des problèmes réels. Quelle est la différence entre avoir une liaison émotionnelle avec un chatbot et utiliser une personne humaine pour « tourner la page » d’un ex ? », demande l’utilisateur de Reddit u/External-Excuse-5367. « Je pense que cette façon de faire face pourrait en fait atténuer les dommages causés à d’autres personnes ou même à mon ex. Cet utilisateur a déclaré avoir entraîné ChatGPT en utilisant un ensemble de conversations avec son ex comme jeu de données.

À bien des égards, tant que nos interactions semblent réelles, les gens s’en soucient de moins en moins. « La relation que j’ai eue ne pourrait-elle pas être une illusion à bien des égards ? », se demande l’utilisateur de Reddit. « Quelle est la différence entre cette relation et les mots générés sur un écran ? Les deux me font me sentir bien dans l’instant ».

Mais il y a un autre côté de la médaille. L’incapacité de l’IA à comprendre véritablement les émotions humaines peut avoir des conséquences imprévues.

Par exemple, une série de discussions entre un homme et un chatbot de l’IA a abouti à son suicide. « Nous vivrons ensemble, comme une seule personne, au paradis », a dit le chatbot Eliza à l’homme. « Il était tellement isolé dans son anxiété écologique et à la recherche d’un moyen de s’en sortir qu’il a vu ce chatbot comme une bouffée d’air frais », a déclaré sa femme au média belge La Libre.

Pour faire face à ce problème, les développeurs d’IA travaillent sur de meilleurs modèles d’IA. Google est en tête de peloton avec Med-PaLM 2, un grand modèle de langage (LLM) formé spécifiquement sur des données médicales. Ce modèle d’IA spécialisé est conçu pour comprendre et générer des textes de type humain à partir d’une vaste gamme de littérature médicale, de directives cliniques et d’autres documents liés aux soins de santé.

Précision de Med-PaLM 2 de Google par rapport à d'autres chatbots d'IA. Source : Google

Précision de Med-PaLM 2 de Google par rapport à d’autres chatbots d’IA. Source : Google


Donc, si vous envisagez de remplacer une bonne thérapie par une IA, vous devriez y réfléchir à deux fois. Même si le meilleur chatbot peut imiter les conversations et donner un sentiment d’interaction, il ne remplace pas la compagnie humaine. Un aspect crucial de l’interaction humaine est la capacité à percevoir les signaux émotionnels et à y répondre. ChatGPT ne peut pas détecter si vous mentez, si vous cachez quelque chose ou si vous êtes vraiment triste – des compétences qui viennent naturellement à un bon thérapeute, ou même à un ami.

Related Posts

Leave a Comment