Home » Германия, Франция, Швеция и Канада выражают озабоченность по поводу ИИ

Германия, Франция, Швеция и Канада выражают озабоченность по поводу ИИ

by Patricia

Правительства многих стран мира все больше беспокоятся о ящике Пандоры для продвинутого искусственного интеллекта, который был широко открыт после публичного выпуска ChatGPT компанией OpenAI. Даже пока они обдумывают возможные меры регулирования, неясно, можно ли заставить джинна вернуться в бутылку.

Во вторник канадский комиссар по вопросам конфиденциальности заявил, что он проводит расследование в отношении ChatGPT, присоединившись к коллегам из растущего списка стран, включая Германию, Францию и Швецию, которые выразили обеспокоенность по поводу популярного чатбота после того, как Италия полностью запретила его в воскресенье.

«Технология A.I. и ее влияние на частную жизнь является приоритетом для моего офиса», — сказал в своем заявлении Филипп Дюфрейн, комиссар по вопросам конфиденциальности Канады. «Мы должны идти в ногу с быстро развивающимися технологическими достижениями и опережать их, и это одно из моих основных направлений работы на посту комиссара».

Итальянский запрет был введен в связи с инцидентом, произошедшим 20 марта, когда OpenAI признала наличие ошибки в системе, которая раскрыла платежную информацию пользователей и историю чатов. OpenAI ненадолго отключила ChatGPT от сети, чтобы исправить ошибку.

«Нам нужен не запрет на приложения искусственного интеллекта, а способы обеспечения таких ценностей, как демократия и прозрачность», — заявил в понедельник представитель Министерства внутренних дел Германии в интервью немецкому новостному изданию Handelsblatt.

Но возможно ли вообще запретить программное обеспечение и искусственный интеллект в мире, где существуют виртуальные частные сети (VPN)?

VPN — это услуга, которая позволяет пользователям безопасно и конфиденциально выходить в Интернет, создавая зашифрованное соединение между их устройством и удаленным сервером. Это соединение маскирует домашний IP-адрес пользователя, создавая впечатление, что он выходит в Интернет с удаленного сервера, а не из своего реального местоположения.

Более того, «запрет А.И. может оказаться нереальным, потому что уже существует множество моделей А.И., и еще больше разрабатывается», — сказал TCN Джейк Меймар, вице-президент по инновациям консалтинговой компании Glimpse Group. «Единственным способом обеспечить запрет А.И. будет запрет на доступ к компьютерам и облачным технологиям, что не является практическим решением».

Попытка Италии запретить ChatGPT происходит на фоне растущих опасений по поводу влияния искусственного интеллекта на конфиденциальность и безопасность данных, а также его потенциального использования не по назначению.

В прошлом месяце аналитический центр по искусственному интеллекту, Центр по искусственному интеллекту и цифровой политике, подал официальную жалобу в Федеральную торговую комиссию США, обвинив OpenAI в обманных и нечестных действиях после появления открытого письма, подписанного несколькими высокопоставленными представителями технологического сообщества, которые призывали замедлить развитие искусственного интеллекта.

OpenAI попыталась ответить на эти опасения в сообщении в блоге о безопасности ИИ от 5 апреля, в котором говорится о приверженности компании долгосрочным исследованиям в области безопасности и сотрудничеству с сообществом ИИ.

OpenAI заявила, что ее цель — повысить точность фактов, снизить вероятность «галлюцинаций», одновременно защищая частную жизнь пользователей и детей, в том числе изучая возможности проверки возраста. «Мы также признаем, что, как и любая технология, эти инструменты сопряжены с реальными рисками, поэтому мы работаем над тем, чтобы безопасность была встроена в нашу систему на всех уровнях», — написала компания.

Сообщение OpenAI не понравилось некоторым, которые назвали его пиаром, который не рассматривает экзистенциальный риск, связанный с ИИ».

В то время как одни бьют тревогу по поводу ChatGPT, другие говорят, что проблема не в чатботе, а в более широком вопросе о том, как общество собирается его использовать.

«Этот момент дает шанс подумать о том, каким обществом мы хотим быть — какие правила мы хотим применять ко всем одинаково, с ИИ или нет, и какие экономические правила лучше всего служат обществу», — сказал TCN Барат Рагхаван, доцент компьютерных наук в USC Viterbi. «Лучшими политическими ответами будут не те, которые направлены на конкретные технологические механизмы современных ИИ (которые быстро устареют), а поведение и правила, которые мы хотели бы видеть универсальными»

Related Posts

Leave a Comment