Home » Anthropic aggiorna Claude con capacità quasi doppie rispetto a GPT-4 Turbo

Anthropic aggiorna Claude con capacità quasi doppie rispetto a GPT-4 Turbo

by Patricia

Anthropic ha appena rilasciato Claude 2.1, un modello linguistico di grandi dimensioni (LLM) che offre una finestra di contesto da 200.000 token, una caratteristica che supera i 120.000 contesti recentemente annunciati da GPT-4 Turbo di OpenAI.

Questa versione strategica offre una capacità di gestione del contesto quasi doppia rispetto a quella del suo rivale più vicino ed è il frutto di una partnership estesa con Google che ha permesso alla startup di utilizzare le sue Tensor Processing Unit più avanzate.

“Il nostro nuovo modello Claude 2.1 offre una finestra contestuale di 200.000 token leader nel settore, una riduzione di 2 volte del tasso di allucinazioni, suggerimenti di sistema, utilizzo di strumenti e prezzi aggiornati”, ha dichiarato Anthropic in un tweet di oggi. L’introduzione di Claude 2.1 risponde alla crescente domanda di IA in grado di elaborare e analizzare con precisione documenti di formato lungo.

Questo nuovo aggiornamento significa che gli utenti di Claude possono ora interagire con documenti estesi come intere basi di codice o epopee letterarie classiche, sbloccando il potenziale di varie applicazioni, dall’analisi legale alla critica letteraria.

Il ricercatore Greg Kamradt ha rapidamente messo alla prova il modello Claude 2.1. Ha riscontrato una maggiore coerenza nel modello OpenAI. Ha riscontrato una maggiore coerenza del modello di OpenAI a un numero inferiore di token, ma Claude ha ottenuto risultati più variegati a seconda delle richieste di lunghezza diversa.

“A partire da circa 90K token, le prestazioni di richiamo in fondo al documento hanno iniziato a peggiorare sempre di più”, ha concluso. La sua indagine ha rilevato livelli di degrado simili per GPT -4 Turbo a circa 65K token. “Sono un grande fan di Anthropic, che sta contribuendo a spingere i limiti delle prestazioni di LLM e a creare strumenti potenti per il mondo”, ha scritto.

L’impegno di Anthropic nel ridurre gli errori dell’intelligenza artificiale è evidente nella maggiore precisione di Claude 2.1, che dichiara una riduzione del 50% dei tassi di allucinazione. Il tutto si aggiunge al raddoppio della veridicità rispetto a Claude 2.0. Questi miglioramenti sono stati rigorosamente testati con una serie di domande complesse e fattuali, progettate per sfidare gli attuali limiti del modello. Come TCN ha riferito in precedenza, le allucinazioni erano uno dei punti deboli di Claude. Un aumento così drastico dell’accuratezza porrebbe l’LLM in una posizione di maggiore concorrenza con il GPT-4.

Con l’introduzione di una funzione di utilizzo di strumenti API, Claude 2.1 si integra meglio nei flussi di lavoro degli utenti avanzati, dimostrando la sua capacità di orchestrare diverse funzioni, di effettuare ricerche sul web e di attingere da database privati. Sebbene sia ancora in fase beta, questa funzione promette di estendere l’utilità di Claude a un ampio spettro di operazioni, dal ragionamento numerico complesso alla formulazione di raccomandazioni sui prodotti.

Inoltre, Claude 2.1 di Anthropic è dotato di “prompt di sistema”, progettati per migliorare l’interazione tra l’utente e l’intelligenza artificiale”. Questi suggerimenti consentono agli utenti di impostare le attività di Claude specificando ruoli, obiettivi o stili, migliorando così la capacità di Claude di mantenere il carattere negli scenari di gioco di ruolo, di rispettare le regole e di personalizzare le risposte. Si tratta di un sistema paragonabile alle istruzioni personalizzate di OpenAI, ma più esteso in termini di contesto.

Ad esempio, un utente potrebbe ordinare a Claude di adottare il tono di un analista tecnico quando riassume un rapporto finanziario, assicurandosi che l’output sia in linea con gli standard professionali. Questa personalizzazione attraverso i suggerimenti del sistema può aumentare l’accuratezza, ridurre le allucinazioni e migliorare la qualità complessiva di un’opera, rendendo le interazioni più precise e pertinenti al contesto.

Tuttavia, il pieno potenziale di Claude 2.1, con la sua finestra contestuale da 200.000 token, è riservato agli utenti di Claude Pro, per cui gli utenti liberi dovranno attenersi a Claude 2, con 100.000 token e un’accuratezza che si colloca tra GPT 3.5 e GPT-4.

Gli effetti a catena del rilascio di Claude 2.1 sono destinati a influenzare le dinamiche del settore dell’IA. Mentre le aziende e gli utenti valutano le loro opzioni di IA, le capacità migliorate di Claude 2.1 presentano nuove considerazioni per coloro che cercano di sfruttare l’IA per la sua precisione e adattabilità.

Related Posts

Leave a Comment