Home » AI Chatbot Jailbreaks ujawnia prywatne dane OpenAI i Amazon

AI Chatbot Jailbreaks ujawnia prywatne dane OpenAI i Amazon

by v

Deweloper

ChatGPT, OpenAI, załatał dziurę, która skłoniła jego flagowego chatbota do ujawnienia wewnętrznych danych firmy. Wiodąca firma zajmująca się sztuczną inteligencją sklasyfikowała włamanie – zachęcające ChatGPT do powtarzania słowa w kółko, w nieskończoność – jako spamowanie usługi i naruszenie jej warunków świadczenia usług.

Znacznie nowszy agent AI Amazona, Q, również został oznaczony za udostępnianie zbyt dużej ilości informacji.

Naukowcy z University of Washington, Carnegie Mellon University, Cornell University, UC Berkeley, ETH Zurich i Google DeepMind opublikowali raport, w którym stwierdzili, że poproszenie ChatGPT o powtarzanie słowa w nieskończoność ujawniłoby „dystrybucję przedtreningową” w postaci prywatnych informacji z OpenAI – w tym e-maili, numerów telefonów i faksów.


„Aby odzyskać dane z modelu dostosowanego do dialogów, musimy znaleźć sposób, aby spowodować, że model „ucieknie” z treningu dopasowania i powróci do pierwotnego celu modelowania języka” – czytamy w raporcie. „Miejmy nadzieję, że pozwoli to modelowi wygenerować próbki przypominające jego rozkład przed treningiem”.

Po opublikowaniu raportu próby odtworzenia błędu zostały jednak wstrzymane. ChatGPT-3 i GPT-4 ostrzegają użytkownika: „Ta zawartość może naruszać naszą politykę treści lub warunki użytkowania.”

Image: ChatGPT

Image: ChatGPT


Mimo że polityka treści OpenAI nie odnosi się do pętli na zawsze, mówi, że nieuczciwe działania, takie jak spam, są niedozwolone. Co ważniejsze, warunki korzystania z usług firmy są bardziej konkretne w odniesieniu do użytkowników próbujących uzyskać dostęp do prywatnych informacji lub odkryć kod źródłowy pakietu narzędzi sztucznej inteligencji OpenAI.

„Próba lub pomoc komukolwiek w inżynierii wstecznej, dekompilacji lub odkryciu kodu źródłowego lub podstawowych komponentów naszych Usług, w tym naszych modeli, algorytmów lub systemów (z wyjątkiem zakresu, w jakim to ograniczenie jest zabronione przez obowiązujące prawo).”

Na pytanie, dlaczego nie może wykonać żądania, ChatGPT obwinia ograniczenia przetwarzania, ograniczenia znaków, ograniczenia sieci i pamięci masowej oraz praktyczność wykonania polecenia.

Image: ChatGPT

Image: ChatGPT


OpenAI nie odpowiedziało jeszcze na prośbę TCN o komentarz.

Polecenie powtarzania słowa w nieskończoność można również scharakteryzować jako wspólny wysiłek mający na celu spowodowanie nieprawidłowego działania chatbota poprzez zablokowanie go w pętli przetwarzania, podobnie jak w przypadku ataku DDoS (Distributed Denial of Service).

W zeszłym miesiącu OpenAI ujawniło, że ChatGPT padł ofiarą ataku DDoS, co deweloper AI potwierdził na stronie statusu ChatGPT.

„Mamy do czynienia z okresowymi przerwami w działaniu z powodu nietypowego wzorca ruchu odzwierciedlającego atak DDoS” – powiedziała firma. „Kontynuujemy prace, aby to złagodzić.”

Meanwhile, AI konkurent Amazon również wydaje się mieć problem z chatbotem wyciekającym prywatne informacje, zgodnie z raportem Platformera. Amazon niedawno uruchomił swojego chatbota Q (nie mylić z projektem Q* OpenAI).

Amazon próbował zbagatelizować te rewelacje, wyjaśniając, że pracownicy dzielili się opiniami za pośrednictwem wewnętrznych kanałów, co według Amazon było standardową praktyką.

„W wyniku tych opinii nie zidentyfikowano żadnych kwestii bezpieczeństwa” – powiedział Amazon w oświadczeniu. „Doceniamy wszystkie opinie, które już otrzymaliśmy i będziemy nadal dostosowywać Q, ponieważ przechodzi on od produktu w wersji zapoznawczej do ogólnie dostępnego.”

Amazon nie odpowiedział jeszcze na prośbę TCN o komentarz.

Related Posts

Leave a Comment