Home » Niemcy, Francja, Szwecja i Kanada wyrażają obawy przed AI

Niemcy, Francja, Szwecja i Kanada wyrażają obawy przed AI

by v

Kilka światowych rządów jest coraz bardziej zaniepokojonych puszką Pandory zaawansowanej sztucznej inteligencji, która została szeroko otwarta wraz z publicznym wydaniem ChatGPT przez OpenAI. Nawet podczas rozważania możliwych regulacji, nie jest jasne, czy dżin może być nawet zmuszony do powrotu do butelki.

We wtorek kanadyjski komisarz ds. prywatności powiedział, że bada ChatGPT, dołączając do kolegów z rosnącej listy krajów – w tym Niemiec, Francji i Szwecji – które wyraziły obawy dotyczące popularnego chatbota po tym, jak Włochy zakazały go całkowicie w niedzielę.

„Technologia A.I. i jej wpływ na prywatność jest priorytetem dla mojego biura” – powiedział w oświadczeniu Philippe Dufresne, komisarz ds. prywatności w Kanadzie. „Musimy nadążać za – i wyprzedzać – szybko zmieniającymi się postępami technologicznymi i jest to jeden z moich kluczowych obszarów zainteresowania jako komisarza”.

Włoski zakaz wynikał z incydentu z 20 marca, w którym OpenAI przyznał się do błędu w systemie, który ujawnił informacje o płatnościach użytkowników i historię czatu. OpenAI na krótko wyłączył ChatGPT, aby naprawić błąd.

„Nie potrzebujemy zakazu aplikacji AI, ale raczej sposobów na zapewnienie wartości takich jak demokracja i przejrzystość”, powiedział rzecznik niemieckiego Ministerstwa Spraw Wewnętrznych niemieckiemu rynkowi informacyjnemu Handelsblatt w poniedziałek.

Ale czy zakazanie oprogramowania i sztucznej inteligencji jest w ogóle możliwe w świecie, w którym istnieją wirtualne sieci prywatne (VPN)?

A VPN to usługa, która pozwala użytkownikom na bezpieczny i prywatny dostęp do Internetu poprzez stworzenie szyfrowanego połączenia pomiędzy ich urządzeniem a zdalnym serwerem. Połączenie to maskuje domowy adres IP użytkownika, sprawiając wrażenie, że uzyskuje on dostęp do internetu z lokalizacji zdalnego serwera, a nie ze swojej rzeczywistej lokalizacji.

Ponadto, „zakaz A.I. może nie być realistyczny, ponieważ istnieje już wiele modeli A.I. w użyciu, a kolejne są opracowywane”, powiedział TCN Jake Maymar, wiceprezes ds. innowacji w firmie konsultingowej A.I., Glimpse Group. „Jedynym sposobem na egzekwowanie zakazu A.I. byłoby zakazanie dostępu do komputerów i technologii chmury, co nie jest praktycznym rozwiązaniem”.

Włoska próba zakazu ChatGPT pojawia się w obliczu rosnącego zaniepokojenia wpływem, jaki sztuczna inteligencja będzie miała na prywatność i bezpieczeństwo danych, a także jej potencjalnym nadużyciem.

An A.I. think tank, the Center for A.I. and Digital Policy, złożył w zeszłym miesiącu formalną skargę do U.S. Federal Trade Commission, oskarżając OpenAI o zwodnicze i nieuczciwe praktyki po pojawieniu się listu otwartego podpisanego przez kilku wysoko postawionych członków społeczności technologicznej, którzy wezwali do spowolnienia rozwoju sztucznej inteligencji.

OpenAI próbowało odnieść się do tych obaw we wpisie na blogu z 5 kwietnia na temat bezpieczeństwa AI, który nakreślił zaangażowanie firmy w długoterminowe badania nad bezpieczeństwem i współpracę ze społecznością A.I.

OpenAI powiedział, że dąży do poprawy dokładności faktograficznej, zmniejszając prawdopodobieństwo „halucynacji”, jednocześnie chroniąc prywatność użytkowników i dzieci, w tym patrząc na opcje weryfikacji wieku. „Uznajemy również, że jak każda technologia, te narzędzia przychodzą z prawdziwym ryzykiem – pracujemy więc nad tym, aby bezpieczeństwo było wbudowane w nasz system na wszystkich poziomach” – napisała firma.

Przesłanie OpenAI nie spodobało się niektórym, którzy nazwali je PR-owym ubiorem, który nie odnosi się do egzystencjalnego ryzyka stwarzanego przez AI”.

Podczas gdy niektórzy biją na alarm w sprawie ChatGPT, inni twierdzą, że chatbot nie jest problemem, a raczej szerszym zagadnieniem, jakim jest zamierzone wykorzystanie go przez społeczeństwo.

„Ten moment daje szansę na zastanowienie się, jakim społeczeństwem chcemy być – jakie zasady chcemy stosować do wszystkich w równym stopniu, napędzanych przez AI lub nie – i jakie zasady ekonomiczne najlepiej służą społeczeństwu”, Barath Raghavan, profesor nadzwyczajny informatyki w USC Viterbi, powiedział TCN. „Najlepszymi odpowiedziami politycznymi nie będą te, które wymierzone są w konkretne mechanizmy technologiczne dzisiejszej A.I. (które szybko staną się nieaktualne), ale zachowania i zasady, które chcielibyśmy, aby były stosowane powszechnie. „

Related Posts

Leave a Comment