Home » Крестный отец искусственного интеллекта” покидает Google, чтобы спасти нас от ИИ

Крестный отец искусственного интеллекта» покидает Google, чтобы спасти нас от ИИ

by Tim

Джеффри Хинтон, пионер искусственного интеллекта, известный как один из «крестных отцов ИИ», ушел со своего поста в Google, чтобы открыто выразить свои опасения по поводу того, что ИИ может нанести значительный вред миру.

В интервью New York Times Хинтон признался, что теперь он отчасти сожалеет о том, что занимался этим делом своей жизни. Несмотря на полезное применение А.И., Хинтон опасается, что технология может быть использована безответственно, что приведет к нежелательным последствиям.

Хинтон опасается, что конкуренция между такими технологическими гигантами, как Google и Microsoft, за создание самых совершенных А.И. приведет к глобальной гонке, которая не прекратится без какого-либо всемирного регулирования. Однако он также категорично отметил, что, по его мнению, Google ответственно подошла к своим исследованиям:

Хинтон известен тем, что в 1986 году популяризировал теоретическую разработку нейронных сетей, а в 2012 году создал одну из них, способную распознавать изображения. Его работа сыграла решающую роль в разработке современных моделей генеративного искусства, таких как Stable Diffusion и MidJourney, и заложила основу для предстоящих усилий OpenAI по созданию GPT-4, способной взаимодействовать с изображениями.

Его потенциально запоздалый шаг многие сравнивают с Робертом Оппенгеймером, профессором физики, которому приписывают создание атомной бомбы.

Риски искусственного интеллекта

Одной из ближайших проблем, на которую обращает внимание Хинтон, является распространение фальшивых изображений, видео и текстов в Интернете, что может сделать правду все более трудноразличимой для обычного человека. По мере совершенствования генеративного А.И. создатели поддельного и манипулятивного контента могут использовать эти инструменты, чтобы обманывать и запутывать людей.

Хинтон также обеспокоен тем, как А.И. может повлиять на рабочие места в будущем. Хотя в настоящее время чат-боты, подобные ChatGPT, дополняют людей, в конечном итоге они могут заменить тех, кто выполняет рутинные задачи, например, персональных помощников, бухгалтеров и переводчиков. Хотя ИИ может облегчить некоторые виды монотонной работы, он также может ликвидировать больше рабочих мест, чем ожидается, нарушив социальный баланс.

В долгосрочной перспективе Хинтон опасается, что будущие версии технологии представляют угрозу для человечества из-за неожиданного поведения, которому они могут научиться на основе больших объемов данных, которые они анализируют. Это становится проблемой, когда системам A.I. разрешается генерировать и выполнять свой собственный код.

Этот долгосрочный взгляд также приобрел особую актуальность, когда другие ключевые фигуры в области А.И. начали предупреждать о возможности сценария «foom» — когда ИИ значительно превзойдет человеческий интеллект — и о том, какое влияние это может оказать на развитие общества.

Хинтон — лишь один из тысяч технологических лидеров и исследователей, встревоженных экспоненциальным развитием разработок ИИ для различных областей (от эротических чатов до медицинской диагностики). В прошлом месяце набрало популярность открытое письмо, в котором лидеры призвали приостановить развитие ИИ до установления адекватного контроля. Хинтон не подписал его.

Эволюция позиции Хинтона в отношении ИИ отражает растущее понимание рисков и проблем, связанных с быстро развивающимися технологиями. Для Хинтона уход с работы всей его жизни был важен для предотвращения сценария, который, по его словам, кажется, становится все ближе с каждым днем.

«Посмотрите, как было пять лет назад и как стало сейчас», — сказал он в интервью The New York Times. «Возьмите разницу и распространите ее вперед. Это страшно. «

Related Posts

Leave a Comment