Home » Modely umělé inteligence jsou stále méně transparentní, varují vědci

Modely umělé inteligence jsou stále méně transparentní, varují vědci

by Thomas

Podle týmu výzkumníků ze Stanfordovy univerzity se hlavní modely umělé inteligence, jako jsou ChatGPT, Claude, Bard a LlaM-A-2, stávají méně transparentními.

Novou studii vypracovalo Stanfordské centrum pro výzkum základních modelů (CRFM), které je součástí Stanfordského institutu umělé inteligence zaměřené na člověka (HAI), jenž se zabývá výzkumem a vývojem základních modelů umělé inteligence.

V oficiální tiskové zprávě vedoucí komunity CRFM Rishi Bomasani uvedl: „Společnosti v oblasti fundamentálních modelů jsou stále neprůhlednější. Tato neprůhlednost vytváří problémy jak pro společnosti, tak pro tvůrce politik a spotřebitele.

Společnosti, které stojí za nejpřesnějšími a nejčastěji používanými základními modely, se shodují v tom, že chtějí konat dobro, ale mají rozdílné názory na otevřenost a transparentnost.

Například společnost OpenAI považuje nedostatečnou transparentnost za ochranný prvek.

„Nyní jsme přesvědčeni, že naše původní představy o otevřenosti byly mylné, a přešli jsme od myšlenky, že bychom měli vše zveřejňovat, k názoru, že musíme vymyslet, jak bezpečně sdílet přístup k systému a jeho přínosy,“ píše se na oficiálním blogu.

Studie MIT 2020 naznačuje, že tato základní myšlenka existuje již delší dobu.“ Výzkumníci píší: „Jejich vyprávění naznačuje, že OpenAI je navzdory svým ušlechtilým aspiracím posedlá udržováním tajemství, ochranou své image a zachováním loajality svých zaměstnanců.

Základní názory společnosti Anthropic na bezpečnost umělé inteligence naopak naznačují, že se startup zavázal „považovat systémy umělé inteligence za transparentní a vysvětlitelné“ a zaměřuje se na zavedení „transparentnosti a procedurálních opatření, která zajistí ověřitelné dodržování [jeho] závazků“. V srpnu 2023 také společnost Google oznámila spuštění svého Centra transparentnosti, které má lépe zveřejňovat své zásady a řešit tuto problematiku.

Ale proč by se uživatelé měli zajímat o transparentnost UI?

„Menší transparentnost ztěžuje ostatním podnikům pochopit, zda mohou bezpečně vytvářet aplikace, které se opírají o obchodní modely; vědcům provádět výzkum, který se opírá o obchodní modely založené na obchodních modelech; tvůrcům politik vytvářet smysluplné politiky k omezení této mocné technologie; a spotřebitelům pochopit omezení modelů nebo požadovat nápravu způsobené škody,“ uvádí se v dokumentu Stanfordské univerzity.

Bomasani a tým ze Stanfordu, MIT a Princetonu vyvíjejí za účelem řešení této problematiky Fundamental Model Transparency Index (FMTI). Index hodnotí širokou škálu témat, aby získal komplexní pohled na to, jak transparentní jsou společnosti ohledně svých modelů umělé inteligence. Žebříček se zabývá aspekty, jako je způsob, jakým společnosti vytvářejí své základní modely, dostupnost datových sad, způsob jejich fungování a jejich následné využití.

Výsledky nebyly ideální. Na stupnici od 0 do 100 se nejvyšší skóre pohybovalo v rozmezí 47 až 54 bodů, přičemž s odstupem na druhém místě se umístila Llama 2 společnosti Meta. Transparentnost openAI byla 47 %, Google pouze 41 % a Anthropic 39 %.

Zdroj: Stanford University Foundation Centre for Pattern Studies

Zdroj: Stanford University Foundation Centre for Pattern Studies


V žebříčku hrál roli také rozdíl mezi modely s otevřeným a uzavřeným zdrojovým kódem.

„Zejména složené skóre každého vývojáře open-source modelu je téměř stejně průhledné jako skóre vývojáře closed-source modelu s nejvyšším skóre,“ napsal stanfordský tým ve vyčerpávající výzkumné zprávě. Pro nezkušené oko to znamená, že nejhorší open-source modely AI jsou transparentnější než nejlepší closed-source modely.

Transparentnost modelů umělé inteligence není jen akademickou záležitostí. Tvůrci politik po celém světě tvrdí, že vývoj UI vyžaduje náležitou transparentnost.

„Pro mnoho politiků v EU i ve Spojených státech, Velké Británii, Číně, Kanadě, zemích G7 a řadě dalších vlád je transparentnost nejvyšší politickou prioritou,“ uvedl Bomasani.

Širší důsledky těchto zjištění jsou jasné. S tím, jak se modely umělé inteligence stále více integrují do různých oblastí, se transparentnost stává klíčovou. A to nejen z etických důvodů, ale také kvůli praktickým aplikacím a spolehlivosti.

Related Posts

Leave a Comment