Home » Poznaj firmy pomagające rządom w wykrywaniu deepfake’ów AI

Poznaj firmy pomagające rządom w wykrywaniu deepfake’ów AI

by Patricia

Jeśli wierzysz we wszystko, co czytasz w Internecie, możesz pomyśleć, że prezydent Biden wezwał do narodowego poboru i że zarówno mężczyźni, jak i kobiety dołączą do wojny na Ukrainie. Ale w rzeczywistości jest to kłamstwo wypowiedziane przez złośliwego twórcę deepfake video.

Złośliwi aktorzy wykorzystują sztuczną inteligencję do tworzenia filmów podszywających się pod polityków, celebrytów i znane osoby. Najmniej szkodliwe są głupie i oczywiste fałszywe filmy przedstawiające kogoś, kto wygląda jak prezydent USA grający w Minecrafta, ale w najgorszym przypadku technologia ta może stanowić realne zagrożenie dla bezpieczeństwa narodowego.

? Byliśmy w stanie sprawdzić, które części były prawdziwym papieżem, a które fałszywym” – powiedział Brown. „Były rzeczy, które nie mogły być prawdziwe. Oznaczało to nasz detektor pod względem cieni i kątów”.

Model, jak twierdzi, był w stanie wykryć z „ponad 95% dokładnością” ze względu na duże dane treningowe. Oczywiście DeepMedia bada podróbki AI znalezione w Internecie, ale jej zbiór danych naprawdę wyróżnia się synergią z DubSync, usługą tłumaczenia i dubbingu.

„Nasza platforma DubSync jest zasadniczo generatorem deepfake’ów. „Aby poznać dobry deepfake, musisz zbudować generator” – wyjaśnia Brown. „I to właśnie zasila nasze wykrywanie deepfake

Brown twierdzi, że generowanie deepfake’ów przez DubSync jest „od sześciu do 12 miesięcy przed wszystkimi innymi”. Ma to na celu uniemożliwienie złym aktorom tworzenia głębokich podróbek, które są zbyt zaawansowane, aby sztuczna inteligencja mogła je wykryć. Jednak utrzymanie tej przewagi to ciągła walka.

„To gra w kotka i myszkę. Każdy, kto udaje, że jest inaczej, tak naprawdę nie jest w tej dziedzinie” – mówi Brown. „Jesteśmy przekonani, że możemy nadal wykrywać, zwłaszcza po stronie trwających badań i generowania rzeczy”.

DeepIdentify jest dostępne za pośrednictwem interfejsu API DeepMedia i innych pakietów, ale bardziej zaawansowane funkcje są wymagane, gdy rządy i instytucje finansowe zawierają umowy z firmą.

„Mamy istniejące narzędzia do wykrywania defektów, ale rząd USA i Departament Obrony chcą być najlepsi na świecie w tym, co robią”. „Żądają nie tylko tego, co najlepsze na świecie, ale nawet więcej” – wyjaśnia Gupta. „W rzeczywistości prowadzimy nowe badania, opracowujemy nowe narzędzia, nowe rozwiązania.

Dlaczego powinno nas to obchodzić?
Obecnie technologia deepfake jest dobrze znana z głupich filmów parodystycznych, nierealistycznych podszywania się pod prezydenta i szkodliwej fałszywej pornografii. Jednak technologia ta może być również wykorzystywana do prowokowania prawdziwych napięć między narodami, potencjalnie skutkując ofiarami, atakami terrorystycznymi i innymi szkodliwymi i destrukcyjnymi reakcjami.

„Na przykład incydent z marca 2022 r., kiedy opublikowano deepfake, który wydawał się pokazywać ukraińskiego prezydenta Zełenskiego nakazującego swoim żołnierzom poddanie się” – powiedziała TCN amerykańska prawniczka ds. bezpieczeństwa narodowego i analityk geopolityczny Irina Tukerman. „Zaprzeczył autentyczności tego filmu i przedstawił dowody”.

W obliczu zbliżających się wyborów w USA w 2024 r. technologia deepfake jest najnowszym problemem, który może wpłynąć na wynik głosowania, podobnie jak skandal Cambridge Analytica w 2018 r.

„Przeciwnicy państwowi lub osoby motywowane politycznie mogą publikować fałszywe filmy przedstawiające wybranych urzędników lub inne osoby publiczne wygłaszające podburzające oświadczenia lub zachowujące się niewłaściwie” – wyjaśnia Zukerman. „Takie incydenty mogą podważać zaufanie publiczne, negatywnie wpływać na wypowiedzi, tworzyć podziały i być wykorzystywane do wpływania na wybory i inne ważne procesy decyzyjne”.

Ingerencja może nie być taka prosta. Rzeczywiście, deepfake może być wykorzystywany do zaprzeczania rzeczywistości i próby walki z faktycznymi informacjami i wydarzeniami.

Istnieje również kwestia możliwej „kłamliwej dywidendy”. Deepfakes są formą dezinformacji, która może być wykorzystywana do zaprzeczania autentyczności oryginalnych treści, tworzenia dalszych zaciemnień w celu zaszkodzenia kwestiom bezpieczeństwa i dyskredytowania przyjaznych amerykańskich źródeł, zasobów, analityków, sojuszniczych rządów lub urzędników państwowych”. mówi Zukerman.

Ze względu na zagrożenie dla bezpieczeństwa narodowego, firma twierdzi, że współpracuje z ekosystemem Departamentu Obrony USA, sojusznikami i partnerami w Europie i Azji oraz nienazwanymi „bardzo dużymi firmami z branży mediów społecznościowych”, aby pomóc w wykrywaniu deepfake’ów w obiegu.

Tylko w ciągu ostatniego roku nastąpiła szybka ewolucja technologii i narzędzi sztucznej inteligencji generatywnej. Wraz z rozwojem technologii deepfake, z pewnością jeszcze trudniej będzie zidentyfikować fałszywe klipy gołym okiem. Właśnie to jest celem firm zajmujących się wykrywaniem, takich jak DeepMedia, aby pomóc ludziom zachować bezpieczeństwo i informacje.

Related Posts

Leave a Comment