Home » Бивш изследовател на OpenAI: Има 50% вероятност ИИ да завърши с “катастрофа

Бивш изследовател на OpenAI: Има 50% вероятност ИИ да завърши с „катастрофа

by v

Бивш ключов изследовател в OpenAI смята, че има приличен шанс изкуственият интелект да поеме контрола над човечеството и да го унищожи.

„Мисля, че може би има нещо като 10-20% шанс ИИ да поеме властта, [при което] много [или] повечето хора ще загинат“, каза Пол Кристиано, който ръководеше екипа за подреждане на езиковите модели в OpenAI, в подкаста Bankless. „Приемам го доста сериозно.“

Кристиано, който сега оглавява Alignment Research Center, организация с нестопанска цел, чиято цел е да приведе ИИ и системите за машинно обучение в съответствие с „човешките интереси“, заяви, че е особено притеснен от това какво ще се случи, когато ИИ достигнат логическия и творческия капацитет на човека. „Като цяло може би говорим за 50/50 шанс за катастрофа малко след като имаме системи на човешко ниво“, каза той.

Кристиано е в добра компания. Неотдавна десетки учени от цял свят подписаха онлайн писмо, в което призовават OpenAI и други компании, които се надпреварват да създават по-бързи и по-интелигентни изкуствени интелекти, да натиснат бутона за пауза в разработването. Големи личности – от Бил Гейтс до Елон Мъск – изразиха загриженост, че оставен без контрол, ИИ представлява очевидна, екзистенциална опасност за хората.

Не бъди зъл

Защо ИИ би станал зъл? В основата си по същата причина, по която и човек: обучение и житейски опит.

Подобно на бебето, ИИ се обучава, като получава планини от данни, без да знае какво да прави с тях. Той се учи, като се опитва да постигне определени цели със случайни действия и се ориентира към „правилните“ резултати, определени от обучението.

Досега машинното обучение е позволило на ИИ да направи огромен скок в създаването на добре структурирани и последователни отговори на човешки запитвания, като се потопи в данните, натрупани в интернет. В същото време основната компютърна обработка, която подпомага машинното обучение, става все по-бърза, по-добра и по-специализирана. Някои учени смятат, че в рамките на едно десетилетие тази изчислителна мощ, съчетана с изкуствен интелект, ще позволи на тези машини да станат разумни като хората и да имат самочувствие.

В този момент нещата стават по-сложни. Ето защо много изследователи твърдят, че трябва да измислим как да наложим предпазни огради сега, а не по-късно. Докато поведението на ИИ се наблюдава, то може да бъде контролирано.

Но ако монетата падне от другата страна, дори съоснователят на OpenAI казва, че нещата могат да станат много, много лоши.

Foomsday?

Тази тема се обсъжда от години. Един от най-известните дебати по темата се проведе преди 11 години между изследователя на изкуствения интелект Елиезер Юдковски и икономиста Робин Хансън. Двамата обсъдиха възможността за достигане на „фуум“ – което очевидно означава „бързо настъпване на смазващо майсторство“ – точката, в която ИИ става експоненциално по-интелигентен от хората и способен на самоусъвършенстване. (Произходът на термина „foom“ е спорен.)

„Елиезер и неговите аколити вярват, че е неизбежно ИИ да премине към „foom“ без предупреждение, което означава, че един ден ще построите AGI [изкуствен общ интелект] и часове или дни по-късно това нещо рекурсивно ще се самоусъвършенства до божествен интелект и след това ще изяде света. Реалистично ли е това?“ Пери Мецгер, компютърен учен, който активно участва в общността на изкуствения интелект, наскоро написа в Twitter.

Мецгер твърди, че дори когато компютърните системи достигнат нивото на човешкия интелект, все още има достатъчно време да се предотвратят всякакви лоши резултати. „Възможно ли е „фуум“ от логическа гледна точка? Възможно е. Не съм убеден в това“, каза той. „Възможно ли е в реалния свят? Почти съм сигурен, че не. Дали в дългосрочен план дълбоко свръхчовешкият ИИ ще бъде нещо? Да, но не и „фуум“.“

Друга видна фигура, Ян Льо Кун, също надигна глас, твърдейки, че е „напълно невъзможно“, човечеството да преживее завладяване от ИИ.“ Да се надяваме на това.

Related Posts

Leave a Comment