Home » Niewidzialny atrament: naukowcy analizują słabe punkty w znakowaniu wodnym treści generowanych przez sztuczną inteligencję.

Niewidzialny atrament: naukowcy analizują słabe punkty w znakowaniu wodnym treści generowanych przez sztuczną inteligencję.

by Tim

Powszechność deepfake’ów stwarza poważne zagrożenia. Od tworzenia nagich zdjęć nieletnich po oszukańcze promocje wykorzystujące głębokie podróbki celebrytów, zdolność do odróżniania treści generowanych przez sztuczną inteligencję (AIGC) od sztucznych treści nigdy nie była ważniejsza

Znak wodny, powszechny środek zapobiegający fałszerstwom w

Proces ataku wykorzystany w badaniu.Image: Arvix

Proces ataku wykorzystany w badaniu.Image: Arvix


Ponadto oceniono potencjalny wpływ tych luk w świecie rzeczywistym, szczególnie w scenariuszach dezinformacji i złośliwego wykorzystania treści generowanych przez sztuczną inteligencję. Łączne wyniki tych eksperymentów i analiz doprowadziły do wniosku, że pilnie potrzebne są bardziej niezawodne mechanizmy znakowania wodnego.

Firmy takie jak OpenAI ogłosiły, że opracowały metody wykrywania treści generowanych przez sztuczną inteligencję z 99% dokładnością, ale ogólne wyzwania pozostają. Obecne metody identyfikacji, takie jak metadane i niewidoczne znaki wodne, mają swoje ograniczenia.

Li sugeruje, że „aby chronić AIGC, niektóre metody kryptograficzne, takie jak podpisy cyfrowe, można połączyć z istniejącymi metodami znakowania wodnego”, ale dokładna implementacja jest nadal niejasna.

Inni badacze zaproponowali bardziej ekstremalne podejścia: jak niedawno poinformował TCN, zespół z Massachusetts Institute of Technology (MIT) zaproponował „zatruwanie” obrazów do modelowania sztucznej inteligencji. Używanie „zatrutych” obrazów jako danych wejściowych do zbioru danych szkoleniowych przyniosłoby negatywne wyniki, ponieważ ostateczny model wychwyciłby szczegóły niewidoczne dla ludzkiego oka, ale mające duży wpływ na proces szkolenia. Jest to jak śmiertelny znak wodny, który zabija model uczenia się.

Jak zauważa Sam Altman, dyrektor generalny OpenAI, szybkie postępy w dziedzinie sztucznej inteligencji wskazują na przyszłość, w której nieodłączne procesy myślowe sztucznej inteligencji odzwierciedlają ludzką logikę i intuicję. Wraz z tymi postępami pojawia się jeszcze większa potrzeba solidnych środków bezpieczeństwa, takich jak znak wodny.

Li uważa, że „znak wodny i zarządzanie treścią są niezbędne, ponieważ w rzeczywistości nie mają wpływu na zwykłych użytkowników”, ale konflikt między twórcami a przeciwnikami pozostaje. „To zawsze zabawa w kotka i myszkę. Dlatego musimy stale aktualizować system znaków wodnych”

Related Posts

Leave a Comment