Home » Naukowcy ostrzegają, że modele sztucznej inteligencji tracą przejrzystość.

Naukowcy ostrzegają, że modele sztucznej inteligencji tracą przejrzystość.

by Thomas

Zespół badawczy

Ale dlaczego użytkownicy powinni dbać o przejrzystość AI?

„Zmniejszona przejrzystość utrudni innym firmom zrozumienie, czy mogą bezpiecznie tworzyć aplikacje w oparciu o ich modele biznesowe, naukowcom prowadzenie badań w oparciu o ich modele biznesowe, politykom tworzenie znaczących polityk ograniczających tę potężną technologię, konsumentom zrozumienie ograniczeń ich modeli lub ubieganie się o odszkodowanie za wyrządzone szkody”. czy ubieganie się o odszkodowanie za wyrządzone szkody” – czytamy w dokumencie opublikowanym w Stanford.

Aby rozwiązać ten problem, Bomasani i jego zespół z Uniwersytetu Stanforda, MIT i Uniwersytetu Princeton opracowują Indeks Przejrzystości Modelu Fundamentalnego (FMTI). Indeks ten ocenia szereg tematów w celu nakreślenia całościowego obrazu przejrzystości, z jaką firmy projektują swoje modele sztucznej inteligencji. Ranking uwzględnia takie aspekty, jak sposób, w jaki firmy budują swoje podstawowe modele, dostępność zestawów danych, sposób ich działania i dalsze wykorzystanie.

Wyniki nie są idealne: w skali od 0 do 100, z najwyższym wynikiem od 47 do 54, Metas Llama 2 marnieje na drugim miejscu; wynik przejrzystości OpenAI wyniósł 47%, Google 41%, a Anthropic 39%.

Źródło: Stanford University Foundation Center for Pattern Studies

Źródło: Stanford University Foundation Center for Pattern Studies


Przejrzystość jest priorytetem dla decydentów nie tylko w UE, ale także w USA, Wielkiej Brytanii, Chinach, Kanadzie, krajach G7 i wielu innych rządach – mówi Bomasani.

Szersze implikacje tych ustaleń są jasne: ponieważ modele sztucznej inteligencji są coraz bardziej zintegrowane z różnymi sektorami, przejrzystość staje się najważniejsza. Nie tylko ze względów etycznych, ale także ze względu na praktyczne zastosowania i wiarygodność.

Related Posts

Leave a Comment