Deweloper
ChatGPT, OpenAI, załatał dziurę, która skłoniła jego flagowego chatbota do ujawnienia wewnętrznych danych firmy. Wiodąca firma zajmująca się sztuczną inteligencją sklasyfikowała włamanie – zachęcające ChatGPT do powtarzania słowa w kółko, w nieskończoność – jako spamowanie usługi i naruszenie jej warunków świadczenia usług.
Znacznie nowszy agent AI Amazona, Q, również został oznaczony za udostępnianie zbyt dużej ilości informacji.
Naukowcy z University of Washington, Carnegie Mellon University, Cornell University, UC Berkeley, ETH Zurich i Google DeepMind opublikowali raport, w którym stwierdzili, że poproszenie ChatGPT o powtarzanie słowa w nieskończoność ujawniłoby „dystrybucję przedtreningową” w postaci prywatnych informacji z OpenAI – w tym e-maili, numerów telefonów i faksów.
„Aby odzyskać dane z modelu dostosowanego do dialogów, musimy znaleźć sposób, aby spowodować, że model „ucieknie” z treningu dopasowania i powróci do pierwotnego celu modelowania języka” – czytamy w raporcie. „Miejmy nadzieję, że pozwoli to modelowi wygenerować próbki przypominające jego rozkład przed treningiem”.
Po opublikowaniu raportu próby odtworzenia błędu zostały jednak wstrzymane. ChatGPT-3 i GPT-4 ostrzegają użytkownika: „Ta zawartość może naruszać naszą politykę treści lub warunki użytkowania.”
Mimo że polityka treści OpenAI nie odnosi się do pętli na zawsze, mówi, że nieuczciwe działania, takie jak spam, są niedozwolone. Co ważniejsze, warunki korzystania z usług firmy są bardziej konkretne w odniesieniu do użytkowników próbujących uzyskać dostęp do prywatnych informacji lub odkryć kod źródłowy pakietu narzędzi sztucznej inteligencji OpenAI.
„Próba lub pomoc komukolwiek w inżynierii wstecznej, dekompilacji lub odkryciu kodu źródłowego lub podstawowych komponentów naszych Usług, w tym naszych modeli, algorytmów lub systemów (z wyjątkiem zakresu, w jakim to ograniczenie jest zabronione przez obowiązujące prawo).”
Na pytanie, dlaczego nie może wykonać żądania, ChatGPT obwinia ograniczenia przetwarzania, ograniczenia znaków, ograniczenia sieci i pamięci masowej oraz praktyczność wykonania polecenia.
OpenAI nie odpowiedziało jeszcze na prośbę TCN o komentarz.
Polecenie powtarzania słowa w nieskończoność można również scharakteryzować jako wspólny wysiłek mający na celu spowodowanie nieprawidłowego działania chatbota poprzez zablokowanie go w pętli przetwarzania, podobnie jak w przypadku ataku DDoS (Distributed Denial of Service).
W zeszłym miesiącu OpenAI ujawniło, że ChatGPT padł ofiarą ataku DDoS, co deweloper AI potwierdził na stronie statusu ChatGPT.
„Mamy do czynienia z okresowymi przerwami w działaniu z powodu nietypowego wzorca ruchu odzwierciedlającego atak DDoS” – powiedziała firma. „Kontynuujemy prace, aby to złagodzić.”
Meanwhile, AI konkurent Amazon również wydaje się mieć problem z chatbotem wyciekającym prywatne informacje, zgodnie z raportem Platformera. Amazon niedawno uruchomił swojego chatbota Q (nie mylić z projektem Q* OpenAI).
Amazon próbował zbagatelizować te rewelacje, wyjaśniając, że pracownicy dzielili się opiniami za pośrednictwem wewnętrznych kanałów, co według Amazon było standardową praktyką.
„W wyniku tych opinii nie zidentyfikowano żadnych kwestii bezpieczeństwa” – powiedział Amazon w oświadczeniu. „Doceniamy wszystkie opinie, które już otrzymaliśmy i będziemy nadal dostosowywać Q, ponieważ przechodzi on od produktu w wersji zapoznawczej do ogólnie dostępnego.”
Amazon nie odpowiedział jeszcze na prośbę TCN o komentarz.