Home » Запознайте се с компанията, която помага на правителствата да откриват дълбоки фалшификати на изкуствен интелект

Запознайте се с компанията, която помага на правителствата да откриват дълбоки фалшификати на изкуствен интелект

by Tim

Ако вярвате на това, което виждате в интернет, може да си помислите, че президентът Байдън е призовал за национален набор и че мъжете и жените ще бъдат избрани да се бият във войната в Украйна. Но всъщност това е лъжа, извършена от злонамерен създател на deepfake видеоклипове.

Недобронамерените актьори използват изкуствен интелект, за да създават видеоклипове, които се представят за политици, известни личности и забележителни личности. В най-малкия случай получаваме глупави и очевидно фалшифицирани кадри на нещо, което звучи като американски президенти, играещи заедно на Minecraft, но в най-лошия случай технологията може да бъде истинска заплаха за националната сигурност.

През 2018 г. комикът, превърнал се в носител на „Оскар“, Джордан Пийл отправи предупреждение към обществеността под формата на един от първите deepfakes, които станаха вирусни. Видеото показваше Барак Обама, който изрича фрази, лежащи далеч отвъд типичния му дискурс, включително неочакваното: „Stay woke, bitches!“ (Останете будни, кучки).

Завършилият Йейлския университет Риджул Гупта се натъкна на видеото и веднага бе поразен от силата на изкуствения интелект. В главата му започнаха да се въртят безкрайни възможности, както положителни, така и отрицателни, спомня си той в неотдавнашно интервю за TCN – и осъзна, че светът се нуждае от компания с „етичен гръбнак“, която да обръща внимание на това пространство.

В резултат на това той и колежката му от Йейл и експерт по лингвистика Ема Браун основават DeepMedia – компания, която се занимава с разобличаване на технологията на дълбоките фалшификати.

DeepMedia има два продукта: DubSync, услуга за превод и дублиране с изкуствен интелект, и DeepIdentify.AI, услуга за откриване на дълбоки фалшификати. Последната е основното им предложение, което доведе до неотдавнашен тригодишен договор на стойност 25 млн. долара с Министерството на отбраната на САЩ (МО), както и други неразкрити договори със съюзнически сили.

„Още от първия ден знаехме, че искаме да работим с правителства, както местни, така и чуждестранни, [както и] с големи, надеждни институции като ООН, на която сега сме партньор“, каза Гупта пред TCN. „[Искахме] да помогнем да се уверим, че – отгоре надолу и отдолу нагоре – етиката е вградена в гръбнака на ИИ.“

Първоначално DeepMedia беше привлечена от Министерството на отбраната, за да обучи ведомството за това как технологията може да се използва за извършване на измами и създаване на политическа дезинформация, каза Гупта. Оттогава насам DeepMedia е подписала повече договори – като например с ВВС на САЩ – за включване на технологията си, за да помогне „да се осигури безопасността на американските и международните граждани“.

Как работи?
DeepIdentity.AI преглежда снимка или видеоклип, като търси несъответствия или неточности, които показват, че изображението или кадрите са дълбоко фалшиви. Често срещани признаци за това са неща като неестествено трепереща уста или сенки, които биха били физически невъзможни.

„Можем да проследим как би трябвало да изглежда и да се движи лицето в действителност и след това да го картографираме“, казва главният оперативен директор на DeepMedia Ема Браун пред TCN. „Можем да определим кое е нормалното движение на лицето.“

Една снимка може да бъде обработена за пет секунди, докато двуминутно видео ще бъде „напълно обработено от край до край с подробен анализ на лицата, гласовете [и] акцентите“ за по-малко от пет минути, обясни тя. След това крайният потребител ще получи информация за това колко манипулации са били открити и къде се намират във видеоклипа или изображението.

„Спомняте ли си фалшивия папа, който се разпространи като вирус? Успяхме да проверим кои части от него са истински папа и кои са фалшиви“, каза Браун. „Имаше някои неща, които никога не биха могли да се случат в реалния живот. И именно те наистина сигнализираха на нашите детектори по отношение на сенките и ъглите.“

Моделът е в състояние да открива с „над 95%“ точност благодарение на големия си обем данни за обучение, твърди тя. Разбира се, DeepMedia изследва дълбоките фалшификати на изкуствен интелект, открити онлайн, но мястото, където нейният набор от данни наистина се отличава, е във взаимодействието ѝ с DubSync – услугата за превод и дублаж.

„Платформата ни DubSync по същество е генератор на дълбоки фалшификати. Трябва да създадем генератор, за да знаем какво е добър deepfake“, обясни Браун. „И това е, което захранва нашето откриване на дълбоки фалшификати. „

Браун твърди, че генерирането на дълбоки фалшификати от DubSync е „с около шест до 12 месеца пред всички останали“, за да се гарантира, че фирмата разполага с най-съвременните данни за обучение. Това се прави с цел да се попречи на лошите играчи да създават дълбоки фалшификати, които са по-напреднали, отколкото техният изкуствен интелект може да открие. Но поддържането на тази преднина е постоянна битка.

„Това със сигурност е игра на котка и мишка. Всеки, който се преструва, че не е така, не е в пространството, в истинския смисъл на думата“, казва Браун. „Убедени сме, че ще успеем да продължим да откриваме, особено с нашата продължаваща изследователска и генерираща страна на нещата.“

Въпреки че DeepIdentify е достъпна чрез API на DeepMedia и други пакети, когато правителствата и финансовите институции подписват договор с компанията, те изискват по-разширена функционалност.

„Имаме съществуващи инструменти за откриване на дефекти, но правителството на Съединените щати, Министерството на отбраната – това са най-добрите хора в света в това, което правят. Те изискват не само най-доброто в света, но и отвъд най-доброто в света“, обяснява Гупта. „[Ние] всъщност провеждаме нови изследвания и измисляме нови инструменти и нови решения.“

Защо трябва да ни е грижа?
В сегашното си състояние технологията за дълбоки фалшификати е най-известна с глупави пародийни видеоклипове, нереалистични президентски имитации и вредна фалшива порнография. Но технологията може да се използва и за предизвикване на реално напрежение между държавите, което потенциално може да доведе до жертви, терористични атаки и други вредни или разрушителни реакции.

„Дълбоките фалшификати биха могли да се използват като част от информационни операции, за да повлияят на хода на войните, като например инцидента с пуснатия през март 2022 г. дълбок фалшификат, при който президентът на Украйна Зеленски изглеждаше, че нарежда на войските си да се предадат“, заяви пред TCN юристът по национална сигурност на САЩ и геополитически анализатор Ирина Цукерман. „Той отрече автентичността на този видеоклип и предостави доказателства, а този видеоклип не беше особено добре направен – но бъдещите биха могли да бъдат такива.“

На фона на изборите в Съединените щати през 2024 г. на хоризонта технологията за дълбоки фалшификати е най-новият проблем, който може да повлияе на гласуването – подобно на скандала с Cambridge Analytica през 2018 г.

„Държавни противници или политически мотивирани лица биха могли да пуснат фалшифицирани видеоклипове на избрани служители или други публични фигури, които правят подстрекателски коментари или се държат неподходящо“, обяснява Цукерман. „Такива инциденти подкопават общественото доверие, оказват отрицателно въздействие върху обществения дискурс, създават разделение и биха могли да бъдат използвани за повлияване на избори или други критични процеси на вземане на решения.“

Намесата може и да не е толкова проста. Всъщност дълбоките фалшификати биха могли да се използват за отричане на реалността и да се опитат да се противопоставят на фактическа информация и събития.

„Съществува и въпросът за възможни „лъжливи дивиденти“ – форма на дезинформация, чрез която дълбоките фалшификати могат да се използват за отричане на автентичността на оригиналното съдържание, създавайки допълнително замазване в ущърб на опасенията за сигурността и дискредитирайки приятелски източници и активи на САЩ, анализатори, правителства на съюзници или дори длъжностни лица“, казва Цукерман.

Тази заплаха за националната сигурност е причината, поради която компанията заявява, че работи с екосистемата на Министерството на отбраната на САЩ, съюзнически и партньорски държави в Европа и Азия, както и с неназована „много голяма компания за социални медии“, за да помогне за откриването на циркулиращите дълбоки фалшификати.

Само през последната година се наблюдава бърза еволюция на технологиите и инструментите за генеративен изкуствен интелект. С развитието на технологиите за дълбоки фалшификати със сигурност ще става още по-трудно да се идентифицират измамни клипове с просто око – и точно тук фирмите за откриване като DeepMedia имат за цел да помогнат на хората да бъдат в безопасност и информирани.

Related Posts

Leave a Comment