Home » Seznamte se s firmou, která pomáhá vládě odhalovat padělky hloubkové umělé inteligence

Seznamte se s firmou, která pomáhá vládě odhalovat padělky hloubkové umělé inteligence

by Thomas

Pokud věříte tomu, co čtete na internetu, můžete si myslet, že prezident Biden vyhlásil národní odvod a bude vybírat muže a ženy, kteří budou bojovat ve válce na Ukrajině. Ve skutečnosti je to ale lež vymyšlená tvůrci zákeřného deepfake videa.

Zlomyslní aktéři využívají umělou inteligenci k vytváření videí vydávajících se za politiky, celebrity a známé osobnosti. Přinejmenším se dočkáme hloupých a zjevně falešných videí, která budou znít, jako by si prezident Spojených států společně hrál na Minecraft, ale v horším případě by tato technologie mohla představovat skutečnou hrozbu pro národní bezpečnost.

V roce 2018 vydal rodilý komik a držitel Oscara Jordan Peele varování pro veřejnost v podobě jednoho z prvních hluboce falešných videí, které se stalo virálním. Video ukazovalo Baracka Obamu, jak pronáší fráze daleko přesahující jeho typický projev, včetně nečekaného „Stay awake, bitches!“ (Zůstaňte vzhůru, děvky!).

Absolvent Yaleovy univerzity Rijul Gupta video viděl a okamžitě byl ohromen silou umělé inteligence. V nedávném rozhovoru pro TCN vzpomínal, že jeho mysl začaly zaplavovat nekonečné možnosti, pozitivní i negativní, a uvědomil si, že svět potřebuje společnost s „morální páteří“, která by se na tuto oblast zaměřila.

Proto spolu s absolventkou Yaleovy univerzity a odbornicí na lingvistiku Emmou Brownovou založil společnost DeepMedia, která se zabývá odhalováním technik hlubokého falšování.

Brown říká, že generátor hlubokých padělků společnosti DubSync je „o šest až 12 měsíců napřed před ostatními“, aby společnost měla k dispozici nejnovější tréninková data. To má zabránit tomu, aby bezohlední jedinci vytvářeli deepfakes, které jsou pokročilejší než to, co dokáže umělá inteligence odhalit. Udržet si tento náskok je však neustálý boj.

„Je to určitě hra na kočku a myš. V pravém slova smyslu,“ říká Brown, „každý, kdo předstírá, že není v oboru, není v oboru.“ Věříme, že se nám daří objevovat dál, zejména díky pokračujícímu výzkumu a generativnímu úsilí.

DeepIdentify je sice k dispozici prostřednictvím rozhraní API společnosti DeepMedia a dalších softwarových balíčků, ale když vlády a finanční instituce uzavírají smlouvy se společnostmi, potřebují pokročilejší možnosti.

„Máme existující nástroje pro detekci defektů, ale americká vláda, ministerstvo obrany – to jsou jedny z nejlepších mozků na světě. Potřebují být nejen nejlepší na světě, ale jít nad rámec toho nejlepšího na světě,“ vysvětluje Gupta.“ Ve skutečnosti [provádíme] nový výzkum a přicházíme s novými nástroji a novými řešeními.

Proč by nás to mělo zajímat?
V současném stavu je technologie deepfake známá především díky nudným parodickým videím, nereálným napodobeninám prezidentů a škodlivému falešnému pornu. Tato technologie však může být použita i k vytváření skutečného napětí mezi národy, což může vést ke ztrátám na životech, teroristickým útokům a dalším škodlivým nebo destruktivním reakcím.

„Deep fake lze použít jako součást informační operace k ovlivnění průběhu války, jako například v březnu 2022, kdy byl zveřejněn deep fake, v němž ukrajinský prezident Zelenskyj zdánlivě nařizuje svým vojákům, aby se vzdali,“ řekla TCN Irina Zuckermanová, americká právnička zabývající se národní bezpečností a geopolitická analytička.“ Popřel pravost tohoto videa a poskytl důkazy o tom, že nebylo nijak zvlášť dobře zpracované – ale budoucí videa mohou být.
Americké volby

2024 jsou za rohem a technologie deep-fake je nejnovějším problémem, který by mohl ovlivnit hlasování – stejně jako skandál Cambridge Analytica v roce 2018.

„Národní opozice nebo politicky motivovaní jednotlivci mohou zveřejnit zfalšovaná videa, která umožní zvoleným úředníkům nebo jiným veřejně činným osobám pronést pobuřující prohlášení nebo se chovat nevhodně,“ vysvětlil Zuckerman.“ Takové incidenty mohou podkopat důvěru veřejnosti, negativně ovlivnit veřejný diskurz, vyvolat rozkol a mohou být využity k ovlivnění voleb nebo jiných klíčových rozhodovacích procesů.“

Zasahování nemusí být tak jednoduché. Ve skutečnosti mohou být hluboké falzifikace použity k popření reality a snaze vyvrátit faktické informace a události.

„Existuje také možnost „falešných dividend“, což je forma dezinformace, která může být použita k popření pravdivosti původního obsahu pomocí hlubokých falzifikací k vytvoření dalšího zastření, podkopání bezpečnostních obav a diskreditaci spřátelených amerických zdrojů a prostředků, analytiků, spojeneckých vlád a dokonce i úředníků,“ uvedl Zuckerman.

Právě kvůli této hrozbě pro národní bezpečnost společnost uvádí, že spolupracuje s ekosystémem amerického ministerstva obrany, spojeneckými a partnerskými zeměmi v Evropě a Asii a nejmenovanou „velmi velkou společností působící v oblasti sociálních médií“, aby pomohla odhalit široce rozšířené falešné zprávy.

Jen za poslední rok se techniky a nástroje generativní umělé inteligence rychle vyvíjely. S rozvojem technik hloubkového falšování bude jistě obtížnější identifikovat podvodná videa pouhým okem, a právě v tom mají detekční společnosti, jako je DeepMedia, pomoci zajistit bezpečnost a informovanost lidí.

Related Posts

Leave a Comment