Home » Od “nízké přesnosti” k 99% úspěšnosti: dokáže nový nástroj OpenAI odhalit hluboké podvrhy?

Od „nízké přesnosti“ k 99% úspěšnosti: dokáže nový nástroj OpenAI odhalit hluboké podvrhy?

by Thomas

OpenAI, průkopník v oblasti generativní umělé inteligence, čelí výzvě odhalování hluboce falešného obsahu v souvislosti s rostoucím výskytem zavádějícího obsahu na sociálních sítích. Na nedávné konferenci The Wall Street Journal Tech Live v kalifornské Laguna Beach představila technologická ředitelka společnosti Mira Muratiová nový detektor hlubokých fakeů.

Muratiová uvedla, že nový nástroj společnosti OpenAI je „na 99 % spolehlivý“ při určování, zda byla fotografie vytvořena umělou inteligencí.

Snímky vytvořené umělou inteligencí mohou být různé, od frivolních výtvorů, jako je papež František v huňatém kabátě Balenciaga, až po podvodné snímky, které mohou způsobit finanční katastrofu. Potenciál a úskalí umělé inteligence jsou zřejmé. S tím, jak se tyto nástroje stávají sofistikovanějšími, se ukazuje, že rozlišit, co je skutečné a co je generováno umělou inteligencí, je náročné.

Přestože datum vydání nástroje zůstává tajné, jeho vydání již vyvolalo velký zájem, zejména vzhledem k předchozím snahám OpenAI.

V lednu 2022 společnost vydala klasifikátor textu, který údajně dokázal rozlišit mezi lidským textem a textem generovaným strojem z modelů, jako je ChatGPT. V červenci letošního roku však společnost OpenAI tento nástroj v tichosti ukončila a vydala aktualizaci, ve které uvedla, že má nepřijatelně vysokou chybovost. Jejich klasifikátor v 9 % případů nesprávně identifikoval skutečný lidský text jako text generovaný umělou inteligencí.

Pokud jsou Mulatiho tvrzení pravdivá, jednalo by se o významný milník pro toto odvětví, protože současné metody detekce obrázků generovaných umělou inteligencí obecně nejsou automatizované. Obvykle se amatérští tvůrci spoléhají na intuici a zaměřují se na dobře známé problémy, které brání generování AI, jako je vykreslování rukou, zubů a vzorů. Rozdíl mezi obrázky generovanými umělou inteligencí a obrázky upravenými umělou inteligencí zůstává nejasný, zejména když se někdo snaží využít umělou inteligenci pro detekci umělé inteligence.

Společnost OpenAI se zavázala nejen používat UI k detekci škodlivých obrázků, ale také cenzurovat své vlastní modely nastavením červených příznaků nad rámec toho, co je veřejně uvedeno v pokynech pro obsah.

Jak zjistila TCN, nástroj Dall-E společnosti OpenAI je zřejmě nastaven tak, aby bez varování měnil popisky nástrojů a tiše chyboval, když je požádán o vytvoření konkrétních výsledků, i když odpovídají veřejně zveřejněným pokynům, a aby se vyhýbal vytváření citlivého obsahu zahrnujícího konkrétní jména, styly umělců a etnické skupiny.

Část toho, co by mohlo být výzvou Dall-E 3 na ChatGPT.

Část toho, co by mohlo být výzvou Dall-E 3 na ChatGPT.


Odhalování hloubkových padělků není jen prací společnosti OpenAI. jednou ze společností, která tuto schopnost vyvíjí, je DeepMedia, která pracuje výhradně s vládními klienty.

Rukávy si vyhrnují i velké společnosti jako Microsoft a Adobe. Představily systém nazvaný „AI watermarking“. Tento mechanismus, vedený aliancí C2PA (Content Authentication and Prevention Alliance), přidává do řečových bublin výrazný symbol „cr“, který označuje obsah vytvořený umělou inteligencí. Symbol má fungovat jako maják transparentnosti a umožnit uživatelům identifikovat zdroj obsahu.

Jako u každé technologie však není spolehlivý. Existuje zranitelnost spočívající v tom, že metadata s tímto symbolem lze odstranit. Jako protilátku však společnost Adobe přišla s cloudovou službou, která dokáže ztracená metadata obnovit, a zajistit tak existenci symbolu. Není těžké ji obejít.

Vzhledem k tomu, že regulační orgány usilují o kriminalizaci hlubokého padělání, představují tyto inovace nejen technologický pokrok, ale také společenský vývoj, a nedávné iniciativy OpenAI a společností, jako jsou Microsoft a Adobe, zdůrazňují kolektivní snahu o zajištění autenticity v digitálním věku. I když se tyto nástroje zdokonalují tak, aby poskytovaly vyšší úroveň autenticity, jejich účinná implementace závisí na jejich širokém přijetí. To se týká nejen technologických gigantů, ale také tvůrců obsahu, platforem sociálních médií a koncových uživatelů.

S rychlým rozvojem generativní umělé inteligence se detektory stále potýkají s problémy při rozlišování pravosti textu, obrázků a zvuku. Prozatím je nejlepší obranou proti zneužití AI lidský úsudek a ostražitost. Lidé však nejsou neomylní. Trvalá řešení budou vyžadovat spolupráci technologických lídrů, zákonodárců a veřejnosti, aby se společně dokázali orientovat na této složité nové hranici.

Related Posts

Leave a Comment