Home » Anthropic dice che non userà i vostri dati privati per addestrare la sua IA

Anthropic dice che non userà i vostri dati privati per addestrare la sua IA

by Patricia

La startup Anthropic, leader nel settore dell’intelligenza artificiale generativa, ha dichiarato che non utilizzerà i dati dei clienti per addestrare il suo Large Language Model (LLM) e che interverrà per difendere gli utenti che si trovano di fronte a rivendicazioni di copyright.

Anthropic, fondata da ex ricercatori di OpenAI, ha aggiornato i suoi Termini di servizio commerciali per precisare i suoi ideali e le sue intenzioni. Escludendo i dati privati dei propri clienti, Anthropic si differenzia nettamente da rivali come OpenAI, Amazon e Meta, che sfruttano i contenuti degli utenti per migliorare i propri sistemi.

“Anthropic non può addestrare i modelli sui contenuti dei clienti provenienti da servizi a pagamento”, si legge nelle condizioni aggiornate, che aggiungono che “tra le parti e nella misura consentita dalla legge applicabile, Anthropic accetta che il cliente sia il proprietario di tutti i risultati e declina qualsiasi diritto ricevuto sui contenuti dei clienti ai sensi delle presenti condizioni”.

I termini proseguono affermando che “Anthropic non prevede di ottenere alcun diritto sui contenuti del cliente in base ai presenti termini” e che essi “non concedono a nessuna delle parti alcun diritto sui contenuti o sulla proprietà intellettuale dell’altra, per implicazione o altro”.

Il documento legale aggiornato fornisce apparentemente protezione e trasparenza per i clienti commerciali di Anthropic. Le aziende sono proprietarie di tutti i risultati dell’IA generati, ad esempio, evitando potenziali controversie sulla proprietà intellettuale. Anthropic si impegna inoltre a difendere i clienti da eventuali richieste di risarcimento per violazione del copyright su qualsiasi contenuto prodotto da Claude.

Questa politica è in linea con la missione di Anthropic, secondo cui l’IA dovrebbe essere benefica, innocua e onesta. Mentre cresce lo scetticismo dell’opinione pubblica sull’etica dell’IA generativa, l’impegno dell’azienda ad affrontare problemi come la privacy dei dati potrebbe darle un vantaggio competitivo.

I dati degli utenti: Il cibo vitale dei LLM

Grandi modelli linguistici (LLM) come GPT-4, LlaMa o Claude di Anthropic sono sistemi avanzati di intelligenza artificiale che comprendono e generano il linguaggio umano grazie all’addestramento su ampi dati testuali. Questi modelli sfruttano tecniche di apprendimento profondo e reti neurali per prevedere le sequenze di parole, comprendere il contesto e cogliere le sottigliezze del linguaggio. Durante l’addestramento, affinano continuamente le loro previsioni, migliorando la loro capacità di conversare, comporre testi o fornire informazioni rilevanti. L’efficacia dei LLM dipende in larga misura dalla varietà e dal volume dei dati su cui vengono addestrati, rendendoli più precisi e consapevoli del contesto, man mano che imparano da vari modelli linguistici, stili e nuove informazioni.

Ecco perché i dati degli utenti sono così preziosi per l’addestramento dei LLM. In primo luogo, assicurano che i modelli siano sempre aggiornati sulle ultime tendenze linguistiche e sulle preferenze degli utenti (ad esempio, la comprensione di nuovi slang). In secondo luogo, consente la personalizzazione e un migliore coinvolgimento degli utenti, adattandosi alle interazioni e agli stili individuali. Tuttavia, questo genera un dibattito etico perché le aziende di AI non pagano gli utenti per queste informazioni cruciali che vengono utilizzate per addestrare modelli che fruttano loro milioni di dollari.

Come riportato da TCN, Meta ha recentemente rivelato che sta addestrando il suo prossimo LlaMA-3 LLM sulla base dei dati degli utenti e anche i suoi nuovi modelli EMU (che generano foto e video a partire da richieste di testo) sono stati addestrati utilizzando i dati pubblicamente disponibili caricati dai suoi utenti sui social media.

Oltre a ciò, Amazon ha anche rivelato che il suo prossimo LLM, che alimenterà una versione aggiornata di Alexa, viene anch’esso addestrato sulla base delle conversazioni e delle interazioni degli utenti; tuttavia, gli utenti possono rinunciare ai dati di addestramento che, per impostazione predefinita, sono impostati in modo da presupporre che gli utenti accettino di condividere queste informazioni.”[Amazon] ha sempre creduto che l’addestramento di Alexa con le richieste del mondo reale sia essenziale per offrire ai clienti un’esperienza accurata e personalizzata e in costante miglioramento”, ha dichiarato un portavoce di Amazon a TCN. “Ma allo stesso tempo, diamo ai clienti il controllo sull’utilizzo delle loro registrazioni vocali di Alexa per migliorare il servizio, e rispettiamo sempre le preferenze dei clienti quando addestriamo i nostri modelli”.

Con i giganti tecnologici in corsa per rilasciare i servizi di intelligenza artificiale più avanzati, le pratiche responsabili in materia di dati sono fondamentali per guadagnarsi la fiducia del pubblico. Anthropic intende dare l’esempio in questo senso. Il dibattito etico sull’acquisizione di modelli più potenti e convenienti a scapito della cessione di informazioni personali è oggi prevalente come lo era decenni fa, quando i social media hanno reso popolare il concetto di utenti che diventano il prodotto in cambio di servizi gratuiti.

Related Posts

Leave a Comment