Home » Były badacz OpenAI: There’s a 50% Chance AI Ends in ‘Catastrophe’

Były badacz OpenAI: There’s a 50% Chance AI Ends in 'Catastrophe’

by Patricia

Były kluczowy badacz OpenAI uważa, że istnieje przyzwoita szansa, że sztuczna inteligencja przejmie kontrolę nad ludzkością i ją zniszczy.

„Myślę, że być może istnieje coś w rodzaju 10-20% szansy na przejęcie kontroli przez AI, [z] wieloma [lub] większością ludzi martwych,” powiedział Paul Christiano, który prowadził zespół wyrównujący modele językowe w OpenAI, w podcaście Bankless. „Biorę to całkiem poważnie”.

Christiano, który obecnie kieruje Alignment Research Center, organizacją non-profit mającą na celu wyrównanie SI i systemów uczenia maszynowego z „ludzkimi interesami”, powiedział, że jest szczególnie zaniepokojony tym, co się stanie, gdy SI osiągnie zdolność logiczną i twórczą człowieka. „Ogólnie rzecz biorąc, być może mówimy o szansie 50/50 na katastrofę wkrótce po tym, jak będziemy mieli systemy na poziomie człowieka” – powiedział.

Christiano jest w dobrym towarzystwie. Niedawno wielu naukowców z całego świata podpisało internetowy list, w którym wzywali OpenAI i inne firmy ścigające się w budowaniu szybszych, inteligentniejszych SI, do wstrzymania prac nad rozwojem. Wielkie osobistości od Billa Gatesa po Elona Muska wyraziły obawy, że pozostawiona bez kontroli AI stanowi oczywiste, egzystencjalne zagrożenie dla ludzi.

Don’t be evil

Dlaczego AI stałaby się zła? Zasadniczo z tego samego powodu, co człowiek: szkolenie i doświadczenie życiowe.

Podobnie jak dziecko, AI jest szkolona poprzez otrzymywanie gór danych, nie wiedząc tak naprawdę, co z nimi zrobić. Uczy się, próbując osiągnąć pewne cele za pomocą przypadkowych działań i wyzerowuje „poprawne” wyniki, określone przez szkolenie.

Jak dotąd, zanurzając się w danych zgromadzonych w Internecie, uczenie maszynowe umożliwiło SI dokonanie ogromnego skoku w łączeniu dobrze skonstruowanych, spójnych odpowiedzi na ludzkie zapytania. Jednocześnie przetwarzanie komputerowe będące podstawą uczenia maszynowego staje się coraz szybsze, lepsze i bardziej wyspecjalizowane. Niektórzy naukowcy uważają, że w ciągu dekady ta moc obliczeniowa, w połączeniu ze sztuczną inteligencją, pozwoli tym maszynom stać się czującymi, jak ludzie, i mieć poczucie własnego ja.

To właśnie wtedy sprawy zaczynają się komplikować. Dlatego wielu badaczy twierdzi, że musimy wymyślić, jak wprowadzić zabezpieczenia już teraz, a nie później. Dopóki zachowanie SI jest monitorowane, można je kontrolować.

Ale jeśli moneta wyląduje po drugiej stronie, nawet współzałożyciel OpenAI twierdzi, że sprawy mogą przybrać bardzo, bardzo zły obrót.

Foomsday?

Ten temat przewija się od lat. Jedna z najsłynniejszych debat na ten temat miała miejsce 11 lat temu pomiędzy badaczem AI Eliezerem Yudkowsky’m a ekonomistą Robinem Hansonem. Dyskutowali oni o możliwości osiągnięcia „foom” – co najwyraźniej oznacza „Fast Onset of Overwhelming Mastery” – punktu, w którym AI staje się wykładniczo mądrzejsza od ludzi i zdolna do samodoskonalenia. (Pochodzenie terminu „foom” jest dyskusyjne).

„Eliezer i jego akolici wierzą, że nieuniknione jest, iż AI przejdzie 'foom’ bez ostrzeżenia, co oznacza, że pewnego dnia zbudujesz AGI [sztuczną inteligencję ogólną], a godziny lub dni później rzecz rekurencyjnie samodoskonali się do poziomu boskiej inteligencji, a następnie pożre świat. Czy to jest realistyczne?” Perry Metzger, informatyk aktywny w społeczności AI, zatweetował niedawno.

Metzger argumentował, że nawet gdy systemy komputerowe osiągną poziom ludzkiej inteligencji, jest jeszcze mnóstwo czasu, by zapobiec złym rezultatom. „Czy 'foom’ jest logicznie możliwy? Być może. Nie jestem przekonany” – powiedział. „Czy jest to możliwe w świecie rzeczywistym? Jestem całkiem pewien, że nie. Czy długoterminowe głęboko nadludzkie AI będzie czymś? Tak, ale nie 'foom'”.

Inna wybitna postać, Yann Le Cun, również podniosła głos, twierdząc, że jest to „całkowicie niemożliwe”, aby ludzkość doświadczyła przejęcia przez AI.” Miejmy nadzieję, że tak będzie.

Related Posts

Leave a Comment