Home » Anthropic verbetert Claude met bijna twee keer de mogelijkheden van GPT-4 Turbo

Anthropic verbetert Claude met bijna twee keer de mogelijkheden van GPT-4 Turbo

by Thomas

Anthropic heeft zojuist Claude 2.1 uitgebracht, een groot taalmodel (LLM) dat een contextvenster van 200.000 tokens biedt – een functie die de onlangs aangekondigde 120K context van GPT-4 Turbo van OpenAI overtreft.

Deze strategische release biedt een contextverwerking die bijna twee keer zo goed is als die van zijn naaste rivaal en is het resultaat van een uitgebreide samenwerking met Google, waardoor de startup gebruik kon maken van zijn meest geavanceerde Tensor Processing Units.

“Ons nieuwe model Claude 2.1 biedt een toonaangevende 200K token context venster, een 2x daling in hallucinatie tarieven, systeem prompts, tool gebruik, en bijgewerkte prijzen,” zei Anthropic eerder vandaag in een tweet. De introductie van Claude 2.1 speelt in op de groeiende vraag naar AI die lange documenten met precisie kan verwerken en analyseren.

Deze nieuwe upgrade betekent dat Claude-gebruikers zich nu kunnen bezighouden met documenten die zo uitgebreid zijn als complete codebases of klassieke literaire epossen, wat mogelijkheden biedt voor verschillende toepassingen, van juridische analyse tot literaire kritiek.

A

AI-onderzoeker Greg Kamradt heeft het Claude 2.1 model snel getest. Hij vond meer consistentie in OpenAI’s model bij een lager aantal tokens, maar Claude heeft meer gevarieerde resultaten afhankelijk van de prompts bij verschillende lengtes.

“Vanaf ongeveer 90K tokens begonnen de prestaties van recall onderaan het document steeds slechter te worden,” concludeerde hij. Zijn onderzoek vond vergelijkbare verslechteringsniveaus voor GPT -4 Turbo rond 65K tokens. “Ik ben een grote fan van Anthropic – ze helpen de grenzen van LLM-prestaties te verleggen en creëren krachtige hulpmiddelen voor de wereld,” postte hij.

Anthropic’s toewijding aan het verminderen van AI-fouten is duidelijk te zien in de verbeterde nauwkeurigheid van Claude 2.1, die een halvering van het aantal hallucinaties claimt. Dat komt neer op een verdubbeling van de waarheidsgetrouwheid ten opzichte van Claude 2.0. Deze verbeteringen zijn uitvoerig getest aan de hand van een robuuste set complexe, feitelijke vragen, ontworpen om de huidige beperkingen van het model uit te dagen. Zoals TCN eerder meldde, waren hallucinaties een van de zwakke punten van Claude. Zo’n drastische toename in nauwkeurigheid zou de LLM dichter bij de concurrentie met GPT-4 brengen.

Met de introductie van een functie voor het gebruik van API-tools integreert Claude 2.1 zich ook naadlozer in de workflows van gevorderde gebruikers en laat zien dat het verschillende functies kan orkestreren, op het web kan zoeken en uit privédatabases kan halen. Deze functie, die nog in bèta is, belooft het nut van Claude uit te breiden over een breed spectrum van bewerkingen, van complexe numerieke redeneringen tot het doen van productaanbevelingen.

Daarnaast bevat Anthropic’s Claude 2.1 “systeem prompts”, ontworpen om de interactie tussen de gebruiker en de AI te verbeteren. Deze prompts stellen gebruikers in staat om de taken van Claude te bepalen door rollen, doelen of stijlen te specificeren, waardoor Claude beter in staat is om zijn karakter te behouden in rollenspellen, zich aan regels te houden en reacties te personaliseren. Dit is vergelijkbaar met OpenAI’s aangepaste instructies, maar uitgebreider in termen van context.

Een gebruiker kan Claude bijvoorbeeld opdracht geven om de toon van een technisch analist aan te nemen bij het samenvatten van een financieel rapport, zodat de output voldoet aan professionele standaarden. Dergelijke aanpassingen via systeemaanwijzingen kunnen de nauwkeurigheid verhogen, hallucinaties verminderen en de algehele kwaliteit van een stuk verbeteren door interacties nauwkeuriger en contextueel relevanter te maken.

Het volledige potentieel van Claude 2.1, met zijn contextvenster van 200K tokens, is echter voorbehouden aan Claude Pro-gebruikers, dus gratis gebruikers zullen het moeten doen met Claude 2 met 100K tokens en een nauwkeurigheid die ergens tussen GPT 3.5 en GPT-4 ligt.

De gevolgen van de release van Claude 2.1 zullen de dynamiek binnen de AI-industrie beïnvloeden. Terwijl bedrijven en gebruikers hun AI-opties evalueren, zorgen de verbeterde mogelijkheden van Claude 2.1 voor nieuwe overwegingen voor diegenen die AI willen inzetten voor zijn precisie en aanpassingsvermogen.

Related Posts

Leave a Comment