Home » Слухи о двойнике Владимира Путина продолжаются.

Слухи о двойнике Владимира Путина продолжаются.

by Thomas

Опубликованная в СМИ статья вновь породила слухи о том, что Владимир Путин пользуется услугами двойника во время своих публичных выступлений.
Как сообщает газета

DailyMail, это упорное и бездоказательное утверждение, циркулировавшее в течение нескольких месяцев, вновь появилось в Японии. Японские следователи проанализировали видеозаписи и фотографии, на которых Путин запечатлен на различных мероприятиях, и предположили, что его представляли как минимум три человека. Хотя подобные утверждения сразу же опровергаются Кремлем, эта история иллюстрирует побочный эффект стремительного развития искусственного интеллекта — разработку глубоких подделок.

Глубокая подделка — это технология, использующая алгоритмы для замены лиц в видео, изображениях и другом цифровом контенте, чтобы подделка выглядела настоящей. Глубокие подделки признаны новым опасным инструментом политического манипулирования. Обнаружение фальшивок стало развивающейся отраслью, а ведущая компания OpenAI, специализирующаяся на генеративном искусственном интеллекте, утверждает, что способна распознавать фальшивки с точностью 99%.

Однако, по мнению исследователей, это нелегко и будет становиться все сложнее

Японский телеканал TBS сообщил об исследовании, проведенном на основе искусственного интеллекта, согласно которому президент России Владимир Путин нанимает двойников для участия в различных мероприятиях. Изображение из: Daily Mail» src=»https://www.todayscrypto.news/wp-content/uploads/2023/11/PBS-Japan-Daily-Mail.jpg@webp.jpg» width=»828″ height=»481″ /☻

Президент и генеральный директор компании Digimark Райли Маккормак сообщил TCN: «Сейчас пытаются использовать вероятностные методы, чтобы определить, является ли это искусственным интеллектом». Как видите, после анализа многих из этих методов, самые лучшие из них оказываются весьма неточными».

Компания Digimarc, основанная в 1994 году, предоставляет цифровые водяные знаки для идентификации и защиты цифровых активов и владельцев авторских прав. Цифровые водяные знаки — один из наиболее часто предлагаемых методов выявления глубоких подделок, и такие компании, как Google, изучают этот подход.

На конференции Google Cloud Next в Сан-Франциско генеральный директор Alphabet и Google Сундар Пичаи продемонстрировал возможности платформы Google Vertix AI по созданию водяных знаков.

Пичаи заявил: «Используя технологию, предоставляемую Google Deepmind, изображения, создаваемые искусственным интеллектом Vertex AI, могут быть помечены водяными знаками незаметно для человеческого глаза, без ущерба для качества изображения».

Однако как стратегия водяные знаки имеют ряд недостатков. По словам Маккормака, чтобы водяные знаки могли предотвратить подделки глубокого ИИ, все они должны были бы использовать один и тот же метод, чтобы показать, были ли они сгенерированы ИИ или являются настоящими.

Проблема с генеративным ИИ, использующим только водяные знаки, заключается в том, что не все движки генеративного ИИ их используют». «Любая система проверки подлинности, если она не является повсеместной, бесполезна, если она просто ставит водяной знак в ту или иную сторону».

Поскольку генераторы изображений для искусственного интеллекта собирают общедоступные изображения из Интернета и социальных сетей, другие эксперты рекомендуют использовать «ядовитые таблетки», прикрепляя код для ухудшения качества изображений в генераторе или неправильно маркируя данные.
Deepfake

AI был создан для того, чтобы выдать себя за президента США Джо Байдена, Папу Римского Франциска и бывшего президента Дональда Трампа. Технология глубоких подделок совершенствуется с каждым днем, и детекторы ИИ играют в гонку за догоняющими.

Дополнительной угрозой, которую представляют собой глубокие подделки, является рост числа сгенерированных ИИ материалов о сексуальном насилии над детьми (CSAM). Согласно опубликованному в октябре отчету британской организации Internet Watch Foundation, детская порнография быстро распространяется в Интернете с помощью открытых моделей ИИ, которые можно использовать и распространять бесплатно.

По мнению IWF, в результате глубокой подделки порнографии становится все труднее отличить сгенерированные ИИ изображения детей от реальных, что заставляет правоохранительные органы преследовать в Интернете призраков, а не реальных жертв насилия.

Дэн Секстон, технический директор Internet Watch Foundation, сказал TCN: «Я не уверен, сколько из этих изображений являются реальными. «Ничто не дает нам стопроцентного ответа на вопрос, является ли что-то реальным или нет».

Другая проблема, поднятая Маккормаком, заключается в том, что многие модели искусственного интеллекта, представленные на рынке, имеют открытый исходный код и могут использоваться, модифицироваться и распространяться без ограничений.

«Когда вы внедряете технологию безопасности в систему с открытым исходным кодом, вы ставите на нее висячий замок», — говорит он. «Вы ставите висячий замок, а рядом с ним — план, как его открыть, поэтому он не имеет большой ценности».

По мере того как более крупные модели, такие как Stability Diffusion, Mid Journey и Dall-E, будут совершенствоваться и поддерживать более прочные защитные барьеры, старые модели, способные создавать CSAM локально, будут использоваться все реже. Кроме того, по его словам, будет легче определить, какая модель создала то или иное изображение.

«Такие вещи будет сложнее делать, они станут более нишевыми».
В то время как государственные деятели являются основными объектами глубоких подделок ИИ, все больше голливудских знаменитостей используют свои изображения в мошенничестве и онлайн-рекламе, в которой используются глубокие подделки ИИ.

Голливудская актриса Скарлетт Йоханссон заявила, что подаст судебный иск против компании Lisa AI, которая использовала сгенерированные искусственным интеллектом изображения звезды «Мстителей» в рекламе, чтобы предотвратить несанкционированное использование ее образа. В прошлом месяце YouTube-магнат Мистер Зверь предупредил своих подписчиков об интернет-мошенничестве с использованием его изображения, и даже Том Хэнкс стал жертвой кампании deepfake AI с использованием его изображения.

В сентябре Папа Римский Франциск, ставший жертвой многочисленных мошенничеств с использованием искусственного интеллекта, поставил технологии во главу угла в своей праздничной проповеди, посвященной Всемирному дню мира. Религиозный лидер призвал к открытому диалогу об искусственном интеллекте и его значении для человечества.

«Необычайные достижения в области искусственного интеллекта оказывают стремительное влияние на человеческую деятельность, на личную и общественную жизнь, на политику и экономику», — сказал Франциск.

Маккормак отметил, что по мере совершенствования средств обнаружения искусственного интеллекта будут совершенствоваться и средства генерации deepfake, что приведет к появлению нового фронта в гонке вооружений искусственного интеллекта, начавшейся в прошлом году с запуском ChatGPT.

«Генеративный искусственный интеллект не создал проблему deepfake или проблему дезинформации», — сказал Маккормак.

Related Posts

Leave a Comment