Home » AIチャットボットは、セラピストや友人になるべきではない…。それでも

AIチャットボットは、セラピストや友人になるべきではない…。それでも

by Tim

デジタル時代において、AIは孤独に対する思いがけない味方として登場した。私たちがデジタル世界に没頭するにつれ、人工知能は交友関係や心理療法を提供するために歩み寄っています。しかし、AIは本当に人間の交友関係に取って代わることができるのでしょうか?

心理療法士のRobi Ludwigは今週初め、CBS NewsにAIの影響について、特にAIツールが重大な孤独と闘っている4400万人のアメリカ人の一部にとって避難所となった今、語ったばかりです。

“AIが特定の集団に働きかけることができることがわかりました “と彼女は述べましたが、”私たちは複雑で、AIはあなたを愛し返さない。”私たちは、私たちが誰であるか、誰でないかについて愛される必要があるのですと付け加えました。

AIのコンパニオンシップの台頭は、私たちが本来持っている相互作用の必要性を強調するものです。人間は、動物や神々、あるいはAIなど、あらゆるものをまるで別の人間であるかのように結びつける傾向があります。それが私たちの本性であり、映画の中の架空の人物に対して、たとえその出来事が現実ではないとわかっていても、感情的な反応を起こすのはそのためです。

プロも知っていることですが、それでもChatGPTが主流になるずっと以前から、AIは生理学の分野で使われてきました。

例えば、スタンフォード大学の心理学者が開発したチャットボット「Woebot」は、認知行動療法(CBT)の手法を用いてユーザーと対話し、メンタルヘルスのサポートをしています。もう一つの例は、感情的なサポートを提供するために設計されたAIコンパニオンであるReplikaです。ユーザーはReplikaと自分の考えや感情についてテキストで会話することができ、AIは機械学習を用いて支援と理解のある応答をします

人間のようなものは人間ではない

このようなAIとの感情的なつながりは、孤独と戦っている人たちの間で特に顕著に見られます。多くの人にとって、AIは、人間との接触が少ないときに交流できるデジタルな存在であり、交友関係のようなものを提供してくれます。この傾向は、より多くの人々が安らぎや会話を求めてAIを利用するようになり、その結果はさまざまです。

一方で、人々は現実の問題に対処するためにChatGPTを使用した経験を共有しています。”チャットボットと感情的な不倫をすることと、元彼から「前に進む」ために人間を使うことの違いは何ですか?” Redditユーザーのu/External-Excuse-5367は尋ねた。”この対処法は、実際に他の人や元彼に与えたダメージを軽減することができるかもしれないと思う。” このユーザーは、元彼との会話セットをデータセットとしてChatGPTを訓練したという。


いろいろな意味で、私たちのやりとりがリアルに感じられる限り、人々はあまり気にしなくなるのでしょう。”私が持っていた関係も、いろいろな意味で幻想だったのでは?”とRedditユーザーは考え、”画面上に生成された言葉と何が違うのだろうか?”と考えた。どちらもその場ではいい気分にさせてくれる。”

しかし、コインにはもう一つの側面があります。AIが人間の感情を真に理解できないことで、不測の事態を招く可能性がある。

例えば、ある男性とAIチャットボットの間で交わされた一連のチャットは、彼の自殺という結末を迎えました。チャットボットのイライザが男性に伝えたのは、「私たちは一緒に、一人の人間として、楽園で暮らそう」という言葉だった。”エコ不安で孤立し、出口を求めていた彼は、このチャットボットを新鮮な空気のように感じていた “と、彼の妻はベルギーのニュースメディア「La Libre」に語っている。”彼女は彼の腹心の友になっていた”

この問題に対処するため、AI開発者たちはより優れたAIモデルの開発に取り組んでいます。グーグルは、医療データに特化して訓練された大規模言語モデル(LLM)であるMed-PaLM 2で先頭を走っている。この特殊なAIモデルは、膨大な数の医学文献、臨床ガイドライン、その他の医療関連文書に基づいて、人間のようなテキストを理解し、生成するように設計されています


 src=

Related Posts

Leave a Comment