Geoffrey Hinton, průkopník umělé inteligence známý jako jeden z „kmotrů umělé inteligence“, odstoupil ze své pozice ve společnosti Google, aby mohl otevřeně vyjádřit své obavy z toho, že umělá inteligence může světu způsobit značné škody.
Hinton v rozhovoru pro New York Times přiznal, že nyní svého životního díla částečně lituje. Navzdory prospěšnému využití A.I. se Hinton obává, že by tato technologie mohla být použita nezodpovědně a vyvolat nezamýšlené důsledky.
Hinton se obává, že soupeření technologických gigantů, jako jsou Google a Microsoft, o vytvoření nejpokročilejší A.I. vyústí v globální závod, který se nezastaví bez nějaké formy celosvětové regulace. Zároveň však důrazně zdůraznil, že podle jeho názoru se společnost Google ve svém výzkumu chová zodpovědně:
V dnešních NYT Cade Metz naznačuje, že jsem odešel ze společnosti Google, abych ji mohl kritizovat. Ve skutečnosti jsem odešel proto, abych mohl mluvit o nebezpečí umělé inteligence, aniž bych bral v úvahu, jaký to má dopad na Google. Google se zachoval velmi zodpovědně.
– Geoffrey Hinton (@geoffreyhinton) 1. května 2023
Hinton je známý tím, že v roce 1986 zpopularizoval teoretický vývoj neuronových sítí a v roce 2012 vytvořil síť schopnou rozpoznávat obrázky. Jeho práce měla zásadní význam pro vývoj současných generativních modelů umění, jako jsou Stable Diffusion a MidJourney, a položila základy pro nadcházející snahy společnosti OpenAI o to, aby GPT-4 byla schopna interakce s obrázky.
Kvůli jeho potenciálně opožděnému kroku ho mnozí přirovnávají k J. Robertu Oppenheimerovi, profesoru fyziky, který se zasloužil o vytvoření atomové bomby.
Rizika umělé inteligence
Jedním z bezprostředních problémů, na které Hinton upozorňuje, je šíření falešných obrázků, videí a textů na internetu, což by mohlo běžnému člověku stále více ztěžovat rozpoznání pravdy. S tím, jak se generativní umělá inteligence stále zdokonaluje, by tvůrci falešného a manipulativního obsahu mohli tyto nástroje využívat k oklamání a zmatení lidí.
Hinton se také obává, jak by umělá inteligence mohla v budoucnu ovlivnit pracovní místa. Zatímco chatboti jako ChatGPT v současné době doplňují lidské pracovníky, mohli by nakonec nahradit ty, kteří se zabývají rutinními úkoly, jako jsou osobní asistenti, účetní a překladatelé. Ačkoli umělá inteligence může ulehčit některé monotónní práce, mohla by také zrušit více pracovních míst, než se předpokládalo, a narušit tak sociální rovnováhu.
Z dlouhodobého hlediska se Hinton obává, že budoucí verze této technologie představují hrozbu pro lidstvo kvůli neočekávanému chování, které se mohou naučit z velkých objemů dat, jež analyzují. To se stane problémem, až bude systémům umělé inteligence umožněno generovat a vykonávat vlastní kód.
Tento dlouhodobý pohled také získal na zvláštním významu, když další klíčové osobnosti v oblasti A.I. začaly varovat před možností „foom“ scénáře – ve kterém AI daleko předčí lidskou inteligenci – a před dopadem, který by to mohlo mít na vývoj společnosti.
Hinton je jen jedním z tisíců technologických lídrů a výzkumníků, kteří jsou znepokojeni exponenciálním rozvojem AI pro různé oblasti (od erotických chatů po lékařskou diagnostiku). Minulý měsíc získal popularitu otevřený dopis, v němž vedoucí představitelé vyzvali k pozastavení vývoje umělé inteligence, dokud nebude zavedena odpovídající kontrola. Hintonová jej nepodepsala.
Vývoj Hintonova postoje k umělé inteligenci odráží rostoucí povědomí o rizicích a výzvách spojených s rychle se rozvíjející technologií. Pro Hintona byla rezignace na jeho životní dílo důležitá, aby zabránil scénáři, který se podle jeho slov zdá být každým dnem blíž a blíž.
„Podívejte se, jak to bylo před pěti lety a jak je to teď,“ řekl listu The New York Times. „Vezměte si ten rozdíl a propagujte ho dopředu. To je děsivé.“