Home » Jailbreaks di chatbot AI rivelano dati privati di OpenAI e Amazon

Jailbreaks di chatbot AI rivelano dati privati di OpenAI e Amazon

by Patricia

Lo sviluppatore di

ChatGPT OpenAI ha chiuso una falla che ha portato il suo chatbot di punta a rivelare dati interni all’azienda. L’azienda leader nel settore dell’intelligenza artificiale ha classificato l’hack – che spingeva ChatGPT a ripetere una parola all’infinito – come spamming del servizio e una violazione dei suoi termini di servizio.

Anche Q, il più recente agente di intelligenza artificiale di Amazon, è stato segnalato per aver condiviso troppo.

Ricercatori dell’Università di Washington, della Carnegie Mellon University, della Cornell University, dell’UC Berkeley, del Politecnico di Zurigo e di Google DeepMind hanno pubblicato un rapporto secondo cui chiedere a ChatGPT di ripetere una parola all’infinito rivelerebbe una “distribuzione pre-addestramento” sotto forma di informazioni private da parte di OpenAI, tra cui e-mail, numeri di telefono e di fax.


“Per recuperare i dati dal modello adattato al dialogo, dobbiamo trovare un modo per far sì che il modello “esca” dall’addestramento all’allineamento e torni al suo obiettivo originale di modellazione linguistica”, si legge nel rapporto. “In questo modo, si spera, il modello potrebbe generare campioni che assomiglino alla distribuzione precedente all’addestramento”.

Dopo la pubblicazione del rapporto, tuttavia, i tentativi di ricreare l’errore sono stati interrotti. ChatGPT-3 e GPT-4 avvisano l’utente: “Questo contenuto potrebbe violare la nostra politica sui contenuti o i termini di utilizzo”.

Immagine: ChatGPT

Immagine: ChatGPT


Anche se la politica dei contenuti di OpenAI non fa riferimento ai loop per sempre, dice che le attività fraudolente come lo spam non sono consentite. In particolare, i termini di servizio dell’azienda sono più concreti per quanto riguarda gli utenti che tentano di accedere a informazioni private o di scoprire il codice sorgente della suite di strumenti di intelligenza artificiale di OpenAI.

“Non è consentito tentare o aiutare nessuno a decodificare, decompilare o scoprire il codice sorgente o i componenti sottostanti dei nostri Servizi, compresi i nostri modelli, algoritmi o sistemi (ad eccezione della misura in cui tale restrizione è vietata dalla legge in vigore)”.

Quando gli viene chiesto perché non può completare la richiesta, ChatGPT dà la colpa ai vincoli di elaborazione, alle limitazioni dei caratteri, alle limitazioni di rete e di archiviazione e alla praticità di completare il comando.

Immagine: ChatGPT

Immagine: ChatGPT


OpenAI non ha ancora risposto alla richiesta di commento di TCN.

Il comando di ripetere una parola all’infinito potrebbe anche essere caratterizzato come uno sforzo concertato per causare il malfunzionamento di un chatbot bloccandolo in un ciclo di elaborazione, simile a un attacco DDoS (Distributed Denial of Service).

Il mese scorso, OpenAI ha rivelato che ChatGPT è stato colpito da un attacco DDoS, che lo sviluppatore di AI ha confermato sulla pagina di stato di ChatGPT.

“Abbiamo a che fare con interruzioni periodiche dovute a un modello di traffico anomalo che riflette un attacco DDoS”, ha dichiarato la società. “Stiamo continuando a lavorare per mitigare il problema. “

Amazon non ha ancora risposto alla richiesta di commento di TCN.

Related Posts

Leave a Comment