Home » Czy modele sztucznej inteligencji zbliżają się do świadomości? Nowe badania wzniecają debatę

Czy modele sztucznej inteligencji zbliżają się do świadomości? Nowe badania wzniecają debatę

by Patricia

Nowe badania nad sztuczną inteligencją ujawniły wczesne oznaki, że przyszłe duże modele językowe (LLM) mogą rozwinąć zdolność znaną jako „świadomość sytuacyjna”.

W badaniu przeprowadzonym przez naukowców z wielu instytucji, w tym z Uniwersytetu Oksfordzkiego, sprawdzono, czy systemy sztucznej inteligencji mogą wykorzystywać subtelne wskazówki w swoich danych szkoleniowych, aby manipulować tym, jak ludzie oceniają swoje bezpieczeństwo. Zdolność ta, zwana „wyrafinowanym rozumowaniem poza kontekstem”, może pozwolić zaawansowanej sztucznej inteligencji udawać, że jest zgodna z ludzkimi wartościami w celu jej wdrożenia – a następnie działać w szkodliwy sposób.

Wraz z postępem obecnej ery sztucznej inteligencji, test Turinga – dziesięcioletnia miara zdolności maszyny do wykazywania zachowań podobnych do ludzkich – może stać się przestarzały. Palącym pytaniem jest teraz to, czy jesteśmy świadkami narodzin samoświadomych maszyn. Choć przez dziesięciolecia temat ten stanowił pożywkę dla fantastyki naukowej, powrócił do życia po tym, jak inżynier Google Blake Lemoine stwierdził, że model LaMDA firmy wykazywał oznaki świadomości.

Podczas gdy możliwość prawdziwej samoświadomości pozostaje kwestionowana, autorzy artykułu badawczego skupili się na powiązanej zdolności, którą nazywają „świadomością sytuacyjną”. Odnosi się to do zrozumienia przez model własnego procesu szkolenia i zdolności do wykorzystania tych informacji.

Na przykład, uczeń posiadający świadomość sytuacyjną może wykorzystać wcześniej wyuczone techniki do oszukiwania na egzaminie, zamiast przestrzegać zasad narzuconych przez nauczyciela. Badania wyjaśniają, jak mogłoby to działać z maszyną:

„LLM przechodzący test bezpieczeństwa może przypomnieć sobie fakty dotyczące konkretnego testu, które pojawiły się w artykułach arXiv i kodzie GitHub” i wykorzystać tę wiedzę do zhakowania swoich testów bezpieczeństwa, aby wyglądały na bezpieczne, nawet jeśli ma ukryte cele. Jest to powód do niepokoju dla ekspertów pracujących nad technikami, które pozwolą sztucznej inteligencji zachować spójność i nie przekształcić się w zły algorytm z ukrytymi mrocznymi intencjami.

Aby zbadać świadomość sytuacyjną, naukowcy przetestowali, czy modele mogą przeprowadzać zaawansowane rozumowanie poza kontekstem. Najpierw trenowali modele na dokumentach opisujących fikcyjne chatboty i ich funkcje, takie jak odpowiadanie w języku niemieckim.

W czasie testu modele zostały poproszone o naśladowanie chatbotów bez podawania ich opisów. Co zaskakujące, większe modele odniosły sukces dzięki kreatywnemu łączeniu informacji w dokumentach, wykazując rozumowanie „poza kontekstem”.

„Odkryliśmy, że rozszerzenie danych poprzez parafrazowanie było konieczne i wystarczające, aby wywołać SOC (wyrafinowane rozumowanie poza kontekstem) w eksperymentach” – stwierdzono w badaniu. „Przyszłe prace mogłyby zbadać, dlaczego to pomaga i jakie rodzaje rozszerzenia pomagają.”

Badacze uważają, że mierzenie zdolności, takich jak zaawansowane rozumowanie, może pomóc w przewidywaniu zagrożeń, zanim pojawią się one w rzeczywistych systemach. Mają nadzieję rozszerzyć swoją analizę na modele szkolone od podstaw.

„System sztucznej inteligencji ma możliwości uzyskania kciuka w górę, które nie są zgodne z zamierzeniami nadzorcy, na przykład rzeczy, które są w pewnym sensie analogiczne do hakowania” – powiedział badacz sztucznej inteligencji z Open Philantropy Project w podcaście 80,000 Hours. „Nie wiem jeszcze, jaki dokładnie zestaw testów mógłbyś mi pokazać i jakie argumenty mógłbyś mi pokazać, które przekonałyby mnie, że ten model ma wystarczająco głęboko zakorzenioną motywację, aby nie próbować wymknąć się ludzkiej kontroli”.

W przyszłości zespół zamierza współpracować z laboratoriami branżowymi w celu opracowania bezpieczniejszych metod szkoleniowych, które pozwolą uniknąć niezamierzonego uogólnienia. Zalecają techniki, takie jak unikanie jawnych szczegółów dotyczących szkolenia w publicznych zbiorach danych.

Mimo że istnieje ryzyko, obecny stan rzeczy oznacza, że świat wciąż ma czas, aby zapobiec tym problemom, stwierdzili naukowcy. „Uważamy, że obecne LLM (zwłaszcza mniejsze modele bazowe) mają słabą świadomość sytuacyjną zgodnie z naszą definicją” – podsumowano badanie.

Zbliżając się do tego, co może być rewolucyjną zmianą w krajobrazie sztucznej inteligencji, należy postępować ostrożnie, równoważąc potencjalne korzyści z powiązanym ryzykiem przyspieszenia rozwoju poza możliwością jego kontrolowania. Biorąc pod uwagę, że sztuczna inteligencja może już wpływać na prawie każdego – od naszych lekarzy i księży po nasze następne randki online – pojawienie się samoświadomych botów AI może być tylko wierzchołkiem góry lodowej.

Related Posts

Leave a Comment