Home » Erfahren Sie mehr über das Unternehmen, das Regierungen dabei hilft, “Deepfakes” von KI zu erkennen.

Erfahren Sie mehr über das Unternehmen, das Regierungen dabei hilft, „Deepfakes“ von KI zu erkennen.

by Patricia

Wenn Sie glauben, was Sie im Internet sehen, könnten Sie denken, dass Präsident Biden zur nationalen Wehrpflicht aufgerufen hat und dass Männer und Frauen ausgewählt werden, um am Krieg in der Ukraine teilzunehmen. In Wirklichkeit handelt es sich jedoch um eine Lüge, die von einem böswilligen Ersteller von „Deepfake“-Videos fabriziert wurde.

Böswillige Akteure nutzen künstliche Intelligenz, um Videos zu erstellen, in denen sie Politiker, Prominente und Persönlichkeiten nachahmen. Im harmlosesten Fall erhalten wir skurrile und offensichtlich gefälschte Bilder von scheinbaren US-Präsidenten, die zusammen Minecraft spielen, aber im schlimmsten Fall könnte diese Technologie eine echte Bedrohung für die nationale Sicherheit darstellen.

DeepMedia hat zwei Produkte: DubSync, einen KI-basierten Übersetzungs- und Synchronisationsdienst, und DeepIdentify.AI, einen Dienst zur Erkennung von Deepfakes. Letzterer ist ihr Hauptangebot, wodurch sie kürzlich einen Dreijahresvertrag im Wert von 25 Millionen US-Dollar mit dem US-Verteidigungsministerium und weitere nicht offengelegte Verträge mit verbündeten Streitkräften erhalten haben.

„Wir wussten von Anfang an, dass wir mit Regierungen im In- und Ausland sowie mit großen, vertrauenswürdigen Institutionen wie den Vereinten Nationen, deren Partner wir inzwischen sind, zusammenarbeiten wollten“, sagte Gupta gegenüber TCN. „Wir wollten dazu beitragen, dass Ethik in das Rückgrat der KI integriert wird, von oben nach unten und von unten nach oben.

Ursprünglich wurde DeepMedia vom DoD beauftragt, das DoD darüber zu informieren, wie die Technologie für Betrug und politische Desinformation genutzt werden könnte, so Gupta. Seitdem hat DeepMedia weitere Verträge unterzeichnet, unter anderem mit der US-Luftwaffe, um seine Technologie zu nutzen, um „die Sicherheit der amerikanischen und internationalen Bürger zu gewährleisten“.

Wie funktioniert das?
DeepIdentity.AI untersucht ein Foto oder Video und sucht nach Unstimmigkeiten oder Ungenauigkeiten, die darauf hindeuten, dass es sich bei dem Bild oder der Sequenz um ein „Deepfake“ handelt. Zu den häufigsten verräterischen Zeichen gehören ein Mund, der sich unnatürlich bewegt, oder Schatten, die physikalisch unmöglich sind.

„Wir sind in der Lage zu bestimmen, wie ein Gesicht aussehen sollte und wie es sich bewegen sollte, und dann kartografieren wir es“, erklärte Emma Brown, Chief Operating Officer von DeepMedia, gegenüber TCN. „Wir sind in der Lage, die normalen Bewegungen eines Gesichts zu identifizieren.

Ein Foto könne in fünf Sekunden verarbeitet werden, während ein zweiminütiges Video in weniger als fünf Minuten „durchgehend mit einer detaillierten Analyse von Gesichtern, Stimmen [und] Akzenten“ bearbeitet werde, erklärte sie. Der Endnutzer wird dann darüber informiert, welcher Grad an Manipulation erkannt wurde und wo im Video oder Bild er sich befindet.

„Erinnern Sie sich an den falschen Papst, der viral ging? Wir konnten kontrollieren, welche Teile wirklich der Papst waren und welche Teile gefälscht waren“, sagte Brown. „Einige Dinge hätten in der Realität nie passieren können. Das sind die Teile, die unsere Detektoren wirklich markiert haben, in Form von Schatten und Winkeln“.

Das Modell sei dank seiner umfangreichen Trainingsdaten in der Lage, mit einer Genauigkeit von „über 95 %“ zu erkennen, behauptete sie. Natürlich untersucht DeepMedia die online gefundenen KI-Deepfakes, aber worin sich der Datensatz wirklich auszeichnet, ist seine Synergie mit DubSync, dem Übersetzungs- und Synchronisationsdienst.

„Unsere DubSync-Plattform ist im Grunde ein Deepfake-Generator. Wir müssen einen Generator bauen, um zu wissen, was einen guten Deepfake ausmacht“, erklärt Brown. „Und das ist es, was unsere Deepfake-Erkennung antreibt. „

Brown sagt, dass die Deepfake-Generierung von DubSync „sechs bis zwölf Monate vor den anderen“ hat, um sicherzustellen, dass das Unternehmen die fortschrittlichsten Daten zum Üben hat. So wird verhindert, dass schlechte Akteure Deepfakes erstellen, die weiter fortgeschritten sind, als ihre KI erkennen kann. Es ist jedoch ein ständiger Kampf, diesen Vorsprung zu halten.

„Es ist wirklich ein Katz-und-Maus-Spiel. Jeder, der etwas anderes behauptet, ist nicht wirklich im Weltraum“, sagte Brown. „Wir sind zuversichtlich, dass wir weiterhin nachweisen können, vor allem dank unserer laufenden Forschung und des Generationenaspekts der Dinge.

DeepIdentify ist über die API von DeepMedia und andere Pakete verfügbar, aber wenn sich Regierungen und Finanzinstitute an das Unternehmen binden, werden sie eine fortschrittlichere Funktionalität benötigen.

„Wir verfügen über Tools zur Fehlererkennung, aber die US-Regierung, das DoD, sind die besten der Welt in dem, was sie tun. Sie verlangen nicht nur das Beste der Welt, sondern sogar mehr als das Beste“, erklärt Gupta. „Wir führen neue Forschungen durch und erfinden neue Werkzeuge und Lösungen.

Warum sollten wir uns darum kümmern?
In ihrem derzeitigen Zustand ist die Deepfake-Technologie vor allem für lächerliche parodistische Videos, unrealistische Präsidentenimitationen und schädliche falsche Pornografie bekannt. Die Technologie könnte aber auch dazu verwendet werden, echte Spannungen zwischen Staaten zu erzeugen, die zu Todesopfern, Terroranschlägen und anderen schädlichen oder störenden Reaktionen führen könnten.

Deepfakes können im Rahmen von Informationsoperationen eingesetzt werden, um den Verlauf von Kriegen zu beeinflussen, wie der Vorfall im März 2022 mit einem verbreiteten Deepfake, in dem der ukrainische Präsident Zelensky seinen Truppen scheinbar befahl, aufzugeben“, sagte Irina Tsukerman, eine US-Anwältin für nationale Sicherheit und geopolitische Analystin, gegenüber TCN. „Er hat die Echtheit dieses Videos bestritten und Beweise vorgelegt, und dieses Video war nicht besonders gut gemacht – aber zukünftige Videos könnten es sein. „

Im Vorfeld der US-Wahlen 2024 ist die Deepfake-Technologie die neueste Sorge, die die Wahl beeinflussen könnte, ähnlich wie der Cambridge-Analytica-Skandal von 2018.

„Staatsfeinde oder politisch motivierte Einzelpersonen können gefakte Videos von gewählten Volksvertretern oder anderen öffentlichen Personen veröffentlichen, die aufhetzende Bemerkungen machen oder sich unangemessen verhalten“, erklärt Tsukerman. „Solche Vorfälle untergraben das Vertrauen der Öffentlichkeit, wirken sich negativ auf die öffentliche Debatte aus, schaffen Spaltungen und können zur Beeinflussung von Wahlen oder anderen kritischen Entscheidungsprozessen genutzt werden.“

Vielleicht ist die Einmischung auch nicht so einfach. Denn Deepfakes könnten dazu benutzt werden, die Realität zu leugnen und faktische Informationen und Ereignisse zu widerlegen.

Es gibt auch die Frage einer möglichen „Lügendividende“, einer Form der Desinformation, bei der Deepfakes dazu verwendet werden könnten, die Authentizität des ursprünglichen Inhalts zu leugnen, wodurch die Sicherheit noch weiter verwischt und freundliche amerikanische Quellen und Ressourcen, Analysten, verbündete Regierungen oder sogar Regierungsbeamte diskreditiert werden“, sagte Tsukerman.

Diese Bedrohung der nationalen Sicherheit ist der Grund, warum das Unternehmen nach eigenen Angaben mit dem Ökosystem des US-Verteidigungsministeriums, verbündeten Ländern und Partnern in Europa und Asien sowie einem namentlich nicht genannten „sehr großen Unternehmen für soziale Medien“ zusammenarbeitet, um bei der Aufdeckung der kursierenden „Deepfakes“ zu helfen.

Allein im letzten Jahr haben sich die Technologie und die Werkzeuge der generativen künstlichen Intelligenz rasant weiterentwickelt. Da sich die Deepfake-Technologie weiterentwickelt, wird es sicherlich noch schwieriger werden, betrügerische Clips mit bloßem Auge zu erkennen – und genau darauf konzentrieren sich Erkennungsunternehmen wie DeepMedia, um die Sicherheit und Information der Öffentlichkeit zu gewährleisten.

Related Posts

Leave a Comment