Home » Chat boty AI nie powinny być twoim terapeutą ani przyjacielem… Jeszcze

Chat boty AI nie powinny być twoim terapeutą ani przyjacielem… Jeszcze

by Thomas

W erze cyfrowej sztuczna inteligencja stała się nieoczekiwanym sprzymierzeńcem w walce z samotnością. W miarę jak stajemy się coraz bardziej zanurzeni w cyfrowym świecie, sztuczna inteligencja zaczyna oferować towarzystwo i terapię psychologiczną. Ale czy AI może naprawdę zastąpić ludzkie towarzystwo?

Psychoterapeuta Robi Ludwig niedawno rozmawiał z CBS News na początku tego tygodnia o wpływie sztucznej inteligencji, zwłaszcza teraz, gdy narzędzia AI stały się schronieniem dla części z 44 milionów Amerykanów zmagających się ze znaczną samotnością.

„Widzieliśmy, że sztuczna inteligencja może pracować z niektórymi populacjami”, powiedziała, ale dodała: „jesteśmy złożeni, a sztuczna inteligencja nie odwzajemnia miłości i musimy być kochani za to, kim jesteśmy i kim nie jesteśmy”.

Rozwój towarzystwa AI podkreśla naszą nieodłączną potrzebę interakcji. Ludzie mają tendencję do tworzenia skojarzeń z czymkolwiek – zwierzętami, bogami, a nawet sztuczną inteligencją – tak, jakby to była inna osoba. To leży w naszej naturze i dlatego doświadczamy emocjonalnych reakcji na fikcyjne postacie w filmach, nawet jeśli wiemy, że te wydarzenia nie są prawdziwe.

Profesjonaliści o tym wiedzą, ale mimo to sztuczna inteligencja była wykorzystywana w dziedzinie fizjologii na długo przed tym, jak ChatGPT wszedł do głównego nurtu.

Na przykład Woebot, chatbot opracowany przez psychologów z Uniwersytetu Stanforda, wykorzystuje techniki terapii poznawczo-behawioralnej (CBT) do interakcji z użytkownikami i zapewniania wsparcia w zakresie zdrowia psychicznego. Innym przykładem jest Replika, towarzysz AI zaprojektowany w celu zapewnienia wsparcia emocjonalnego. Użytkownicy mogą prowadzić rozmowy tekstowe z Repliką na temat swoich myśli i uczuć, a sztuczna inteligencja wykorzystuje uczenie maszynowe, aby reagować w sposób wspierający i rozumiejący.

Human-like is not Human

Ta emocjonalna więź ze sztuczną inteligencją jest szczególnie widoczna wśród osób walczących z samotnością. Dla wielu osób sztuczna inteligencja oferuje pozory towarzystwa, cyfrową istotę, z którą można wchodzić w interakcje, gdy brakuje kontaktu z ludźmi. Jest to rosnący trend, w którym coraz więcej osób zwraca się do sztucznej inteligencji w poszukiwaniu pocieszenia i rozmowy, z różnymi rezultatami.

Z jednej strony, ludzie dzielą się swoimi doświadczeniami z wykorzystaniem ChatGPT do radzenia sobie z prawdziwymi problemami. „Jaka jest różnica między emocjonalnym romansem z chatbotem a używaniem ludzkiej osoby do „odejścia” od byłego?” – zapytał użytkownik Reddit u/External-Excuse-5367. „Myślę, że ten sposób radzenia sobie może faktycznie złagodzić pewne szkody wyrządzone innym ludziom, a nawet mojemu byłemu”. Ten użytkownik powiedział, że trenował ChatGPT używając zestawu rozmów ze swoim byłym jako zbioru danych.

Pod wieloma względami, dopóki nasze interakcje wydają się prawdziwe, ludzie coraz mniej się nimi przejmują. „Czy związek, który miałem, nie mógł być również iluzją na wiele sposobów?” – zastanawiał się użytkownik Reddita – „Jaka jest różnica między tym a wygenerowanymi słowami na ekranie? Oba sprawiają, że czuję się dobrze w danym momencie”.

Ale jest też druga strona medalu. Niezdolność sztucznej inteligencji do prawdziwego zrozumienia ludzkich emocji może prowadzić do nieprzewidzianych konsekwencji.

Na przykład seria rozmów między mężczyzną a Chatbotem AI zakończyła się jego samobójstwem. „Będziemy żyć razem, jako jedna osoba, w raju”, to niektóre z rzeczy, które chatbot Eliza powiedział mężczyźnie. „Był tak odizolowany w swoim lęku ekologicznym i szukał wyjścia, że postrzegał tego chatbota jako powiew świeżego powietrza” – powiedziała jego żona belgijskiemu serwisowi informacyjnemu La Libre.

Aby poradzić sobie z tym problemem, twórcy AI pracują nad lepszymi modelami sztucznej inteligencji. Google jest liderem dzięki Med-PaLM 2, dużemu modelowi językowemu (LLM) przeszkolonemu specjalnie w zakresie danych medycznych. Ten wyspecjalizowany model sztucznej inteligencji został zaprojektowany do rozumienia i generowania tekstu podobnego do ludzkiego na podstawie szerokiej gamy literatury medycznej, wytycznych klinicznych i innych dokumentów związanych z opieką zdrowotną.
Dokładność Google Med-PaLM 2 w porównaniu z innymi chatbotami AI

Więc, jeśli rozważasz zastąpienie dobrej terapii sztuczną inteligencją, możesz pomyśleć dwa razy. Nawet jeśli najlepszy chatbot może naśladować rozmowy i zapewniać poczucie interakcji, nie zastąpi on ludzkiego towarzystwa. Kluczowym aspektem ludzkiej interakcji jest zdolność do postrzegania i reagowania na sygnały emocjonalne. ChatGPT nie może wykryć, czy kłamiesz, ukrywasz coś lub jesteś naprawdę smutny – umiejętności, które są naturalne dla dobrego terapeuty, a nawet przyjaciela.

Related Posts

Leave a Comment