Home » Компания, помогающая правительствам обнаруживать подделки искусственного интеллекта

Компания, помогающая правительствам обнаруживать подделки искусственного интеллекта

by Patricia

Если верить тому, что видишь в Интернете, можно подумать, что президент Байден призвал к национальному призыву, и для участия в войне на Украине будут отобраны как мужчины, так и женщины. Но на самом деле это ложь, созданная злонамеренным создателем видеороликов deepfake.

Злонамеренные актеры используют искусственный интеллект для создания видеороликов, выдающих себя за политиков, знаменитостей и известных личностей. В наименее опасном случае мы получаем дурацкие и явно поддельные кадры, на которых, похоже, президенты США вместе играют в Minecraft, но в худшем случае эта технология может представлять реальную угрозу национальной безопасности.

В 2018 году комик, лауреат премии «Оскар» Джордан Пил сделал предупреждение общественности в виде одного из первых распространившихся глубоких фейков. В видеоролике Барак Обама произносит фразы, выходящие далеко за рамки его типичных высказываний, в том числе неожиданную фразу «Stay woke, bitches!».

Выпускник Йельского университета Риджул Гупта наткнулся на это видео и был мгновенно поражен возможностями искусственного интеллекта. В его голове начали проноситься бесконечные возможности, как положительные, так и отрицательные, вспоминал он в недавнем интервью TCN, и он понял, что миру нужна компания с «этическим стержнем», которая обратит внимание на это пространство.

В результате он вместе с выпускницей Йельского университета и экспертом по лингвистике Эммой Браун стал сооснователем компании DeepMedia, которая занимается разоблачением технологий глубокой фальсификации.

У DeepMedia есть два продукта: DubSync — сервис перевода и дубляжа с помощью искусственного интеллекта, и DeepIdentify.AI — сервис обнаружения глубоких подделок. Последний является их основным предложением, благодаря которому недавно был заключен трехлетний контракт с Министерством обороны США (DoD) на сумму 25 млн. долларов, а также другие нераскрытые контракты с союзными войсками.

«Мы с самого начала знали, что хотим работать с правительствами, как отечественными, так и зарубежными, [а также] с такими крупными и надежными организациями, как Организация Объединенных Наций, партнером которой мы сейчас являемся», — сказал Гупта в интервью TCN. «Мы хотели помочь убедиться в том, что этика — как сверху вниз, так и снизу вверх — будет заложена в основу ИИ».

По словам Гупты, первоначально компания DeepMedia была привлечена Министерством обороны для обучения сотрудников ведомства тому, как технология может быть использована для мошенничества и создания политической дезинформации. С тех пор DeepMedia подписала еще несколько контрактов, например с ВВС США, на использование своей технологии для «обеспечения безопасности американских и иностранных граждан».

Как это работает?
DeepIdentity.AI просматривает фото- или видеоматериалы в поисках несоответствий и неточностей, которые указывают на то, что изображение или видеозапись являются глубокой подделкой. Обычно это такие признаки, как неестественно дрожащий рот или тени, которые физически невозможны.

«Мы можем отследить, как должно выглядеть и двигаться лицо, а затем нанести его на карту», — сказала TCN главный операционный директор DeepMedia Эмма Браун. «Мы можем определить, что является нормальным движением для лица».

Фотография может быть обработана за пять секунд, а двухминутный видеоролик будет «полностью обработан из конца в конец с детальным анализом лиц, голосов [и] акцентов» менее чем за пять минут, пояснила она. После этого конечному пользователю будет сообщено, какой объем манипуляций был обнаружен и где он находится на видео или изображении.

«Помните фальшивого Папу Римского, который стал вирусным? Мы смогли проверить, какие части видео были настоящим Папой Римским, а какие — подделкой», — сказал Браун. «Были некоторые моменты, которые никогда не могли произойти в реальной жизни. Именно они, с точки зрения теней и ракурсов, и привлекли внимание наших детекторов».

По ее словам, благодаря большому объему обучающих данных модель способна определять подделки с точностью «более 95%». Разумеется, DeepMedia изучает подделки, найденные в Интернете, но по-настоящему выдающимся ее набор данных является взаимодействие с DubSync — сервисом перевода и дубляжа.

«Наша платформа DubSync — это, по сути, генератор глубоких подделок. Мы должны создать генератор, чтобы знать, что такое хороший deepfake», — пояснил Браун. «И именно от этого зависит наша система обнаружения подделок».

Браун утверждает, что DubSync генерирует глубокие подделки «примерно на шесть-двенадцать месяцев раньше всех остальных», чтобы обеспечить компанию самыми современными данными для обучения. Это делается для того, чтобы не дать злоумышленникам создать более совершенные подделки, чем может распознать их искусственный интеллект. Но это постоянная борьба за сохранение лидерства.

«Это, безусловно, игра в кошки-мышки. Тот, кто делает вид, что это не так, в действительности не работает в этом пространстве», — сказал Браун. «Мы уверены, что сможем и дальше обнаруживать, особенно с учетом наших постоянных исследований и разработок».

Хотя программа DeepIdentify доступна через API и другие пакеты DeepMedia, когда государственные и финансовые организации заключают с компанией контракт, им требуется более расширенная функциональность.

«У нас есть существующие средства обнаружения дефектов, но правительство США, министерство обороны — это лучшие в мире люди в своем деле. Они требуют не только лучшего в мире, но и сверх лучшего в мире», — пояснил Гупта. «[Мы] действительно проводим новые исследования, разрабатываем новые инструменты и новые решения».

Почему это должно нас волновать?
В своем нынешнем виде технология deepfake наиболее известна благодаря глупым пародийным видеороликам, нереальным пародиям на президентов и вредной порнографии. Однако эта технология может быть использована и для создания реальной напряженности между государствами, что может привести к жертвам, террористическим атакам и другим пагубным или разрушительным реакциям.

«Глубокие подделки могут быть использованы в рамках информационных операций для влияния на ход войны, как, например, в марте 2022 года, когда был выпущен глубокий фейк, в котором президент Украины Зеленский якобы приказал своим войскам сдаться», — сказала TCN американский юрист в области национальной безопасности и геополитический аналитик Ирина Цукерман. «Он опроверг подлинность этого видео и предоставил доказательства, и это видео не было особенно хорошо сделано — но будущие видео могут быть такими.»

В связи с приближающимися выборами в США в 2024 г. технология «глубоких подделок» стала последней проблемой, которая может повлиять на результаты голосования, подобно скандалу с Cambridge Analytica в 2018 г.

«Государственные противники или политически мотивированные лица могут выпустить фальсифицированные видеозаписи, на которых избранные должностные лица или другие публичные персоны делают провокационные комментарии или ведут себя неподобающим образом», — пояснил Цукерман. «Такие инциденты подрывают доверие общества, негативно влияют на общественную дискуссию, вносят раскол и могут быть использованы для подтасовки результатов выборов или других важнейших процессов принятия решений».

Вмешательство может быть и не таким простым. Фактически, фальшивки могут быть использованы для отрицания реальности и попытки противостоять фактической информации и событиям.

Существует также проблема возможных «дивидендов лжеца» — форма дезинформации, при которой фальшивки могут использоваться для отрицания подлинности оригинального контента, создавая дополнительную путаницу в ущерб безопасности и дискредитируя дружественные США источники и активы, аналитиков, правительства союзников или даже официальных лиц», — сказал Цукерман.

Именно поэтому компания заявляет, что она сотрудничает с экосистемой Министерства обороны США, союзниками и партнерами в Европе и Азии, а также с неназванной «очень крупной компанией, работающей в социальных сетях», чтобы помочь обнаружить циркулирующие фальшивки.

Только за последний год произошло стремительное развитие технологий и инструментов генеративного искусственного интеллекта. По мере развития технологии глубоких подделок выявлять мошеннические ролики невооруженным глазом будет все сложнее, и именно в этом случае такие компании, как DeepMedia, стремятся помочь людям в обеспечении безопасности и информированности.

Related Posts

Leave a Comment