Posłowie do Parlamentu Europejskiego zatwierdzili wstępne porozumienie w sprawie stworzenia wytycznych dotyczących wykorzystania sztucznej inteligencji w regionie.
Komisje Rynku Wewnętrznego i Wolności Obywatelskich głosowały 71-8, przy 7 głosach wstrzymujących się, za zatwierdzeniem wyniku negocjacji z państwami członkowskimi w sprawie unijnego aktu dotyczącego sztucznej inteligencji, zgodnie z komunikatem prasowym opublikowanym przez Parlament Europejski.
Rozporządzenie ma na celu „ochronę praw podstawowych, demokracji, praworządności i równowagi środowiskowej przed sztuczną inteligencją wysokiego ryzyka”, jednocześnie zwiększając innowacyjność i pozycję Europy jako pioniera w dziedzinie sztucznej inteligencji.
Ustawa o sztucznej inteligencji miałaby na celu nałożenie zabezpieczeń, takich jak ochrona praw autorskich dla autorów, artystów i innych twórców w obliczu generatywnych modeli sztucznej inteligencji, wraz z zakazami dotyczącymi zastosowań sztucznej inteligencji, które „zagrażają prawom obywateli”, takich jak kategoryzacja biometryczna i punktacja społeczna.
Przepisy wymagałyby również wyraźnego oznaczania głęboko sfałszowanych obrazów, audio i wideo.
‼️ Ustawa o sztucznej inteligencji robi krok naprzód:
Posłowie w @EP_Justice & @EP_SingleMarket poparli tymczasowe porozumienie w sprawie ustawy o sztucznej inteligencji, która zapewnia bezpieczeństwo i jest zgodna z prawami podstawowymi https://t. co/EbXtLBfIoY@brandobenifei @IoanDragosT pic.twitter.com/J3NXRhxd9p– LIBE Committee Press (@EP_Justice) 13 lutego 2024
Ustawodawcy uzgodnili również obowiązki dla „systemów AI wysokiego ryzyka”, takich jak te wykorzystywane w infrastrukturze krytycznej i podstawowych usługach, takich jak opieka zdrowotna i bankowość.
Przepisy pozwoliłyby również na regulacyjne piaskownice i rzeczywiste testy „innowacyjnych aplikacji AI” przed ich wprowadzeniem na rynek.
Ustawa o sztucznej inteligencji zostanie poddana pod głosowanie w Parlamencie Europejskim w marcu lub kwietniu tego roku i oczekuje się, że będzie w pełni stosowana 24 miesiące po wejściu w życie, przy czym niektóre przepisy dotyczące zakazów, kodeksów postępowania i zasad zarządzania wejdą w życie wcześniej.
Organy regulacyjne UE sceptycznie podchodzą do gwałtownego tempa rozwoju sztucznej inteligencji. Na początku tego roku Microsoft został poddany kontroli, ponieważ jego inwestycja w twórcę ChatGPT OpenAI o wartości 10 miliardów dolarów wzbudziła pytania o naruszenia przepisów antymonopolowych.
„Zachęcamy firmy i ekspertów do informowania nas o wszelkich kwestiach związanych z konkurencją, które mogą dostrzec w tych branżach, jednocześnie ściśle monitorując partnerstwa w zakresie sztucznej inteligencji, aby upewnić się, że nie zakłócają one nadmiernie dynamiki rynku” – powiedziała wówczas w oficjalnym oświadczeniu Margrethe Vestager, wiceprzewodnicząca wykonawcza odpowiedzialna za politykę konkurencji w UE. „Komisja Europejska sprawdza, czy inwestycja Microsoftu w OpenAI może podlegać przeglądowi na mocy rozporządzenia UE w sprawie kontroli łączenia przedsiębiorstw.”