Home » Od “niskiej dokładności” do 99% sukcesu: Czy nowe narzędzie OpenAI może wykrywać deepfake’i?

Od „niskiej dokładności” do 99% sukcesu: Czy nowe narzędzie OpenAI może wykrywać deepfake’i?

by v

OpenAI, pionier w dziedzinie generatywnej sztucznej inteligencji, podejmuje wyzwanie wykrywania fałszywych obrazów w obliczu rosnącej liczby wprowadzających w błąd treści rozpowszechnianych w mediach społecznościowych. Podczas niedawnej konferencji Wall Street Journal’s Tech Live w Laguna Beach w Kalifornii, dyrektor ds. technologii w firmie, Mira Murati, zaprezentowała nowy wykrywacz deepfake’ów.

Murati powiedział, że nowe narzędzie OpenAI może pochwalić się „99% niezawodnością” w określaniu, czy zdjęcie zostało wyprodukowane przy użyciu sztucznej inteligencji.

Obrazy generowane przez sztuczną inteligencję mogą obejmować wszystko, od lekkich kreacji, takich jak papież Franciszek w bufiastym płaszczu Balenciaga, po zwodnicze obrazy, które mogą powodować spustoszenie finansowe. Potencjał i pułapki sztucznej inteligencji są oczywiste. W miarę jak narzędzia te stają się coraz bardziej wyrafinowane, rozróżnienie między tym, co jest prawdziwe, a tym, co zostało wygenerowane przez sztuczną inteligencję, okazuje się być wyzwaniem.

Chociaż data premiery narzędzia pozostaje tajemnicą, jego ogłoszenie wzbudziło duże zainteresowanie, zwłaszcza w świetle wcześniejszych przedsięwzięć OpenAI.

W styczniu 2022 roku firma zaprezentowała klasyfikator tekstu, który rzekomo odróżniał ludzkie pismo od tekstu generowanego maszynowo z modeli takich jak ChatGPT. Jednak w lipcu OpenAI po cichu wyłączyła narzędzie, publikując aktualizację, że miało ono niedopuszczalnie wysoki poziom błędu. Ich klasyfikator nieprawidłowo oznaczał prawdziwe ludzkie pismo jako wygenerowane przez sztuczną inteligencję w 9% przypadków.

Jeśli twierdzenie Muratiego jest prawdziwe, byłby to znaczący moment dla branży, ponieważ obecne metody wykrywania obrazów generowanych przez sztuczną inteligencję nie są zazwyczaj zautomatyzowane. Zazwyczaj entuzjaści polegają na przeczuciu i koncentrują się na dobrze znanych wyzwaniach, które utrudniają generowanie sztucznej inteligencji, takich jak przedstawianie dłoni, zębów i wzorów. Różnica między obrazami generowanymi przez sztuczną inteligencję a obrazami edytowanymi przez sztuczną inteligencję pozostaje niewyraźna, zwłaszcza jeśli próbuje się użyć sztucznej inteligencji do wykrywania sztucznej inteligencji.

OpenAI nie tylko pracuje nad wykrywaniem szkodliwych obrazów sztucznej inteligencji, ale także ustawia barierki cenzurujące swój własny model, nawet poza to, co jest publicznie określone w wytycznych dotyczących treści.

Jak odkryło TCN, narzędzie Dall-E od OpenAI wydaje się być skonfigurowane tak, aby modyfikować podpowiedzi bez uprzedzenia i po cichu wyrzucać błędy, gdy zostanie poproszone o wygenerowanie określonych wyników, nawet jeśli są one zgodne z opublikowanymi wytycznymi i unikają tworzenia wrażliwych treści obejmujących określone nazwiska, style artystów i grupy etniczne.

Part of what could be Dall-E 3's prompt in ChatGPT.

Part of what could be Dall-E 3’s prompt in ChatGPT.


Wykrywanie deepfake’ów nie jest wyłącznie przedsięwzięciem OpenAI. Jedną z firm rozwijających tę zdolność jest DeepMedia, współpracująca w szczególności z klientami rządowymi.

Wielkie marki, takie jak Microsoft i Adobe, również zakasują rękawy. Wprowadziły one coś, co zostało nazwane „systemem znaków wodnych AI”. Mechanizm ten, napędzany przez Coalition for Content Provenance and Authenticity (C2PA), zawiera wyraźny symbol „cr” wewnątrz dymku, sygnalizujący treści generowane przez sztuczną inteligencję. Symbol ten ma działać jako sygnał przejrzystości, umożliwiając użytkownikom rozpoznanie pochodzenia treści.

Jak w przypadku każdej technologii, nie jest ona jednak niezawodna. Istnieje luka, w której metadane zawierające ten symbol mogą zostać usunięte. Jednak jako antidotum, Adobe opracowało również usługę w chmurze zdolną do odzyskania utraconych metadanych, zapewniając w ten sposób obecność symbolu. To również nie jest trudne do obejścia.

Ponieważ organy regulacyjne zbliżają się do kryminalizacji deepfake’ów, innowacje te są nie tylko wyczynami technologicznymi, ale także potrzebami społecznymi. Ostatnie posunięcia OpenAI oraz firm takich jak Microsoft i Adobe podkreślają wspólne dążenie do zapewnienia autentyczności w erze cyfrowej. Nawet jeśli narzędzia te są ulepszane w celu zapewnienia wyższego stopnia autentyczności, ich skuteczne wdrożenie zależy od powszechnego przyjęcia. Dotyczy to nie tylko gigantów technologicznych, ale także twórców treści, platform mediów społecznościowych i użytkowników końcowych.

Ponieważ generatywna sztuczna inteligencja szybko się rozwija, detektory nadal mają trudności z rozróżnieniem autentyczności tekstu, obrazów i dźwięku. Na razie ludzka ocena i czujność są naszą najlepszą linią obrony przed nadużyciami sztucznej inteligencji. Ludzie nie są jednak nieomylni. Trwałe rozwiązania będą wymagały współpracy liderów technologicznych, prawodawców i społeczeństwa w poruszaniu się po tej złożonej nowej granicy.

Related Posts

Leave a Comment