Home » Maak kennis met het bedrijf dat overheden helpt AI Deepfakes te detecteren

Maak kennis met het bedrijf dat overheden helpt AI Deepfakes te detecteren

by Thomas

Als je gelooft wat je op internet ziet, zou je kunnen denken dat president Biden heeft opgeroepen tot een nationale dienstplicht en dat zowel mannen als vrouwen zullen worden geselecteerd om te vechten in de oorlog in Oekraïne. Maar het is eigenlijk een leugen die is gefabriceerd door een kwaadwillende maker van deepfake video’s.

Kwaadwillende acteurs gebruiken kunstmatige intelligentie om video’s te maken die politici, beroemdheden en opmerkelijke figuren imiteren. In het minst schadelijke geval krijgen we maffe en duidelijk vervalste beelden van wat klinkt als Amerikaanse presidenten die samen Minecraft spelen, maar in het ergste geval kan de technologie een echte bedreiging vormen voor de nationale veiligheid.

DeepMedia heeft twee producten: DubSync, een AI vertaal- en nasynchronisatiedienst, en DeepIdentify.AI, een deepfake detectiedienst. Dit laatste is hun belangrijkste aanbod, dat heeft geleid tot een recent driejarig contract van 25 miljoen dollar met het Amerikaanse Ministerie van Defensie (DoD) en andere geheime contracten met geallieerde strijdkrachten.

“We wisten vanaf dag één dat we wilden werken met overheden, zowel binnenlandse als buitenlandse, [en] grote, vertrouwde instellingen zoals de Verenigde Naties, waarvan we nu een partner zijn,” vertelde Gupta aan TCN. “[We wilden] helpen ervoor te zorgen dat – van boven naar beneden en van beneden naar boven – ethiek werd ingebouwd in de ruggengraat van AI.”

Aanvankelijk werd DeepMedia ingeschakeld door het DoD om het departement voor te lichten over hoe de technologie zou kunnen worden gebruikt om fraude te plegen en politieke desinformatie te creëren, zei Gupta. Sindsdien heeft DeepMedia meer contracten getekend, zoals met de Amerikaanse luchtmacht, om zijn technologie te gebruiken om “Amerikaanse en internationale burgers veilig te houden”.

Hoe werkt het?
DeepIdentity.AI bekijkt een foto of video en zoekt naar inconsistenties of onnauwkeurigheden die aangeven dat de afbeelding of het beeldmateriaal een deepfake is. Veelvoorkomende verklikkers zijn bijvoorbeeld een onnatuurlijk trillende mond of schaduwen die fysiek onmogelijk zijn.

“We zijn in staat om te traceren hoe een gezicht er eigenlijk uit zou moeten zien en hoe het zou moeten bewegen, en dan brengen we het in kaart,” vertelde DeepMedia COO Emma Brown aan TCN. “We zijn in staat om te identificeren wat een normale beweging is voor een gezicht.”

Een foto kan in vijf seconden worden verwerkt, terwijl een video van twee minuten “volledig end-to-end wordt verwerkt met gedetailleerde analyse van gezichten, stemmen [en] accenten” in minder dan vijf minuten, legde ze uit. De eindgebruiker krijgt dan te horen hoeveel manipulatie er is gedetecteerd en waar het zich in de video of afbeelding bevindt.

“Herinner je je nog die neppe paus die viraal ging? We konden controleren welke delen echt Pope waren en welke delen nep,” zei Brown. “Er waren bepaalde dingen die nooit in het echt gebeurd konden zijn. En dat waren de dingen die onze detectoren echt markeerden, in termen van schaduwen en hoeken.”

Het model is in staat om met “meer dan 95%” nauwkeurigheid te detecteren dankzij de grote trainingsgegevens, beweerde ze. Natuurlijk onderzoekt DeepMedia de AI deepfakes die online zijn gevonden, maar waar de dataset echt in uitblinkt is de synergie met DubSync, de vertaal- en nasynchronisatieservice.

“Ons DubSync-platform is in wezen een deepfake-generator. We moeten een generator bouwen om te weten wat een goede deepfake is,” legt Brown uit. “En dat is wat onze deepfake-detectie voedt.”

Brown beweert dat DubSync deepfake-generatie “ongeveer zes tot twaalf maanden voorloopt op anderen” om ervoor te zorgen dat het bedrijf de meest geavanceerde gegevens heeft om mee te trainen. Dit wordt gedaan om te voorkomen dat slechte actoren deepfakes maken die geavanceerder zijn dan hun AI kan detecteren. Maar het is een constante strijd om die voorsprong te behouden.

“Het is zeker een kat-en-muisspel. Iedereen die doet alsof dat niet zo is, zit niet echt in de ruimte”, aldus Brown. “We hebben er alle vertrouwen in dat we zullen kunnen blijven detecteren, vooral met ons voortdurende onderzoek en onze generatie-kant van de zaak.”

DeepIdentify is beschikbaar via DeepMedia’s API en andere pakketten, maar wanneer overheden en financiële instellingen met het bedrijf in zee gaan, hebben ze meer geavanceerde functionaliteit nodig.

“We hebben bestaande tools voor het opsporen van defecten, maar de overheid van de Verenigde Staten, het DoD, dat zijn de beste mensen ter wereld in wat ze doen. Ze eisen niet alleen het beste van de wereld, maar zelfs meer dan het beste”, legt Gupta uit. “We voeren nieuw onderzoek uit en bedenken nieuwe gereedschappen en oplossingen.

Waarom zouden we ons zorgen maken?
In zijn huidige staat is deepfake technologie het meest bekend voor domme parodievideo’s, onrealistische presidentiële imitaties en schadelijke neppornografie. Maar de technologie zou ook gebruikt kunnen worden om echte spanningen tussen staten te veroorzaken, met mogelijk slachtoffers, terreuraanslagen en andere schadelijke of verstorende reacties tot gevolg.

“Deepfakes kunnen worden gebruikt als onderdeel van informatieoperaties om het verloop van oorlogen te beïnvloeden, zoals het incident in maart 2022 van een vrijgegeven deepfake waarbij de Oekraïense president Zelensky zijn troepen leek te bevelen om op te geven,” vertelde de Amerikaanse nationale veiligheidsadvocaat en geopolitiek analist Irina Tsukerman aan TCN. “Hij ontkende de echtheid van die video en leverde bewijs, en die video was niet bijzonder goed gemaakt – maar toekomstige video’s zouden dat wel kunnen zijn.”

Met de verkiezingen van 2024 in de Verenigde Staten in het verschiet, is deepfake technologie de nieuwste zorg die de stemming zou kunnen beïnvloeden, vergelijkbaar met het Cambridge Analytica-schandaal van 2018.

“Staatsvijanden of politiek gemotiveerde individuen kunnen vervalste video’s uitbrengen van gekozen functionarissen of andere publieke figuren die opruiende opmerkingen maken of zich ongepast gedragen”, legt Tsukerman uit. “Dergelijke incidenten tasten het vertrouwen van het publiek aan, hebben een negatieve invloed op het publieke debat, zorgen voor verdeeldheid en kunnen worden gebruikt om verkiezingen of andere kritieke besluitvormingsprocessen te beïnvloeden.”

Inmenging is misschien ook niet zo eenvoudig. In feite zouden deepfakes gebruikt kunnen worden om de werkelijkheid te ontkennen en feitelijke informatie en gebeurtenissen te weerleggen.

“Er is ook een kwestie van mogelijk ‘leugenaarsdividend’ – een vorm van desinformatie waarbij deepfakes kunnen worden gebruikt om de authenticiteit van originele inhoud te ontkennen, waardoor de veiligheid verder wordt vertroebeld en bevriende Amerikaanse bronnen en middelen, analisten, bondgenootregeringen of zelfs ambtenaren in diskrediet worden gebracht”, aldus Tsukerman.

Deze bedreiging voor de nationale veiligheid is de reden waarom het bedrijf zegt samen te werken met het Amerikaanse DoD ecosysteem, geallieerde en partnerlanden in Europa en Azië, evenals een niet nader genoemd “zeer groot social media bedrijf” om te helpen bij het detecteren van circulerende deepfakes.

Alleen al in het afgelopen jaar heeft er een snelle evolutie plaatsgevonden van generatieve kunstmatige intelligentie technologie en tools. Naarmate de technologie voor deepfakes zich verder ontwikkelt, zal het zeker nog moeilijker worden om frauduleuze clips met het blote oog te herkennen – en dat is precies waar detectiefirma’s als DeepMedia zich op richten om mensen veilig en geïnformeerd te houden.

Related Posts

Leave a Comment