Джеффри Хинтон, пионер искусственного интеллекта, известный как один из «крестных отцов ИИ», ушел со своего поста в Google, чтобы открыто выразить свои опасения по поводу того, что ИИ может нанести значительный вред миру.
В интервью New York Times Хинтон признался, что теперь он отчасти сожалеет о том, что занимался этим делом своей жизни. Несмотря на полезное применение А.И., Хинтон опасается, что технология может быть использована безответственно, что приведет к нежелательным последствиям.
Хинтон опасается, что конкуренция между такими технологическими гигантами, как Google и Microsoft, за создание самых совершенных А.И. приведет к глобальной гонке, которая не прекратится без какого-либо всемирного регулирования. Однако он также категорично отметил, что, по его мнению, Google ответственно подошла к своим исследованиям:
Сегодня в NYT Кейд Метц утверждает, что я ушел из Google, чтобы критиковать Google. На самом деле, я ушел, чтобы говорить об опасностях искусственного интеллекта, не задумываясь о том, как это влияет на Google. Google поступил очень ответственно.
— Джеффри Хинтон (@geoffreyhinton) 1 мая 2023
Хинтон известен тем, что в 1986 году популяризировал теоретическую разработку нейронных сетей, а в 2012 году создал одну из них, способную распознавать изображения. Его работа сыграла решающую роль в разработке современных моделей генеративного искусства, таких как Stable Diffusion и MidJourney, и заложила основу для предстоящих усилий OpenAI по созданию GPT-4, способной взаимодействовать с изображениями.
Его потенциально запоздалый шаг многие сравнивают с Робертом Оппенгеймером, профессором физики, которому приписывают создание атомной бомбы.
Риски искусственного интеллекта
Одной из ближайших проблем, на которую обращает внимание Хинтон, является распространение фальшивых изображений, видео и текстов в Интернете, что может сделать правду все более трудноразличимой для обычного человека. По мере совершенствования генеративного А.И. создатели поддельного и манипулятивного контента могут использовать эти инструменты, чтобы обманывать и запутывать людей.
Хинтон также обеспокоен тем, как А.И. может повлиять на рабочие места в будущем. Хотя в настоящее время чат-боты, подобные ChatGPT, дополняют людей, в конечном итоге они могут заменить тех, кто выполняет рутинные задачи, например, персональных помощников, бухгалтеров и переводчиков. Хотя ИИ может облегчить некоторые виды монотонной работы, он также может ликвидировать больше рабочих мест, чем ожидается, нарушив социальный баланс.
В долгосрочной перспективе Хинтон опасается, что будущие версии технологии представляют угрозу для человечества из-за неожиданного поведения, которому они могут научиться на основе больших объемов данных, которые они анализируют. Это становится проблемой, когда системам A.I. разрешается генерировать и выполнять свой собственный код.
Этот долгосрочный взгляд также приобрел особую актуальность, когда другие ключевые фигуры в области А.И. начали предупреждать о возможности сценария «foom» — когда ИИ значительно превзойдет человеческий интеллект — и о том, какое влияние это может оказать на развитие общества.
Хинтон — лишь один из тысяч технологических лидеров и исследователей, встревоженных экспоненциальным развитием разработок ИИ для различных областей (от эротических чатов до медицинской диагностики). В прошлом месяце набрало популярность открытое письмо, в котором лидеры призвали приостановить развитие ИИ до установления адекватного контроля. Хинтон не подписал его.
Эволюция позиции Хинтона в отношении ИИ отражает растущее понимание рисков и проблем, связанных с быстро развивающимися технологиями. Для Хинтона уход с работы всей его жизни был важен для предотвращения сценария, который, по его словам, кажется, становится все ближе с каждым днем.
«Посмотрите, как было пять лет назад и как стало сейчас», — сказал он в интервью The New York Times. «Возьмите разницу и распространите ее вперед. Это страшно. «