Home » Дезинформация искусственного интеллекта может подкосить выборы 2024 года – вот как OpenAI планирует с ней бороться

Дезинформация искусственного интеллекта может подкосить выборы 2024 года — вот как OpenAI планирует с ней бороться

by Thomas

Поскольку угроза искусственного интеллекта для демократии является главной проблемой для политиков и избирателей по всему миру, OpenAI в понедельник представила свой план по обеспечению прозрачности контента, созданного искусственным интеллектом, и повышению достоверности информации о голосовании перед выборами 2024 года.

После запуска GPT-4 в марте генеративный ИИ и его потенциальное неправильное использование, включая созданные ИИ глубокие подделки, стали центральной частью разговора о стремительном росте ИИ в 2023 году. В 2024 году мы можем увидеть серьезные последствия от такой дезинформации, созданной ИИ, на фоне важных выборов, включая президентскую гонку в США.

«Готовясь к выборам 2024 года в крупнейших демократических странах мира, мы стремимся продолжать работу по обеспечению безопасности платформы, предоставляя точную информацию о голосовании, обеспечивая соблюдение взвешенной политики и повышая прозрачность», — говорится в сообщении OpenAI в блоге.

OpenAI добавила, что «объединяет опыт наших систем безопасности, разведки угроз, юридических, инженерных и политических команд, чтобы быстро расследовать и устранять потенциальные злоупотребления. «

В августе Федеральная избирательная комиссия США заявила, что будет рассматривать петицию о запрете предвыборной рекламы, созданной искусственным интеллектом, а комиссар FEC Аллен Дикерсон сказал: «В этой работе таятся серьезные проблемы, связанные с Первой поправкой».

Для американских пользователей ChatGPT компания OpenAI заявила, что будет направлять пользователей на беспартийный сайт CanIVote.org, когда им задают «некоторые процедурные вопросы, связанные с выборами». По словам компании, внедрение этих изменений станет основой для ее глобального подхода.

«Мы надеемся продолжить сотрудничество с партнерами и учиться у них, чтобы предвидеть и предотвратить потенциальные злоупотребления нашими инструментами в преддверии глобальных выборов этого года», — добавила компания.

В ChatGPT OpenAI заявила, что не позволяет разработчикам создавать чат-ботов, которые выдают себя за реальных людей или учреждения, такие как правительственные чиновники и офисы. Также, по словам OpenAI, запрещены приложения, цель которых — удержать людей от голосования, в том числе препятствовать голосованию или вводить в заблуждение тех, кто имеет право голосовать.

Генерируемые искусственным интеллектом deepfakes, поддельные изображения, видео и аудио, созданные с помощью генеративного искусственного интеллекта, стали вирусными в прошлом году: несколько изображений с участием президента США Джо Байдена, бывшего президента Дональда Трампа и даже Папы Римского Франциска оказались в центре внимания социальных сетей.

Чтобы предотвратить использование своего генератора изображений Dall-E 3 в кампаниях глубокой подделки, OpenAI заявила, что будет внедрять учетные данные Коалиции по проверке достоверности и аутентичности контента, которые добавляют метку или «значок» к сгенерированному ИИ изображению.

«Мы также экспериментируем с классификатором провенанса, новым инструментом для обнаружения изображений, созданных Dall-E», — заявили в OpenAI. «Наше внутреннее тестирование показало многообещающие первые результаты, даже если изображения подвергались распространенным видам модификаций».

В прошлом месяце Папа Римский Франциск призвал мировых лидеров принять обязательный к исполнению международный договор по регулированию ИИ.

«Достоинство, присущее каждому человеку, и братство, связывающее нас как членов единой человеческой семьи, должны лежать в основе развития новых технологий и служить неоспоримыми критериями для их оценки перед применением, чтобы цифровой прогресс происходил при должном уважении к справедливости и способствовал делу мира», — сказал Франциск.

Для борьбы с дезинформацией OpenAI заявила, что ChatGPT начнет предоставлять новости в режиме реального времени по всему миру, включая цитаты и ссылки.

«Прозрачность происхождения информации и сбалансированность источников новостей помогут избирателям лучше оценивать информацию и самостоятельно решать, чему можно доверять», — заявили в компании.

Прошлым летом OpenAI пожертвовала 5 миллионов долларов Американскому проекту журналистики. На прошлой неделе OpenAI заключила сделку с Ассошиэйтед Пресс, чтобы предоставить разработчику ИИ доступ к архиву новостных статей глобального новостного издания.

Комментарии OpenAI по поводу атрибуции в новостях появились в тот момент, когда компания столкнулась с несколькими исками об авторских правах, в том числе от New York Times. В декабре Times подала в суд на OpenAI и Microsoft, крупнейшего инвестора OpenAI, утверждая, что миллионы ее статей были использованы для обучения ChatGPT без разрешения.

«OpenAI и Microsoft построили бизнес стоимостью в десятки миллиардов долларов, взяв без разрешения совокупные труды человечества», — говорится в иске. «Обучая свои модели, ответчики воспроизводили материалы, защищенные авторским правом, чтобы использовать именно то, для защиты чего был разработан закон об авторском праве: элементы охраняемого выражения в них, такие как стиль, выбор слов, расположение и представление фактов».

OpenAI назвала иск New York Times «необоснованным», утверждая, что издание манипулировало своими подсказками, чтобы заставить чатбота генерировать ответы, похожие на статьи Times.

Related Posts

Leave a Comment