Home » Anthropic verbessert Claude mit fast doppelt so vielen Möglichkeiten wie GPT-4 Turbo

Anthropic verbessert Claude mit fast doppelt so vielen Möglichkeiten wie GPT-4 Turbo

by Patricia

Anthropic hat soeben Claude 2.1 veröffentlicht, ein Large Language Model (LLM), das ein Kontextfenster mit 200.000 Token bietet – eine Funktion, die den kürzlich angekündigten 120K Kontext von GPT-4 Turbo von OpenAI übertrifft.

Diese strategische Version bietet eine fast doppelt so hohe Kontexthandhabung wie die des nächsten Konkurrenten und ist das Ergebnis einer erweiterten Partnerschaft mit Google, die es dem Startup ermöglichte, dessen fortschrittlichste Tensor Processing Units zu nutzen.

„Unser neues Modell Claude 2.1 bietet ein branchenführendes Kontextfenster mit 200.000 Token, eine zweifache Verringerung der Halluzinationsraten, Systemaufforderungen, Werkzeugnutzung und aktualisierte Preise“, sagte Anthropic heute in einem Tweet. Die Einführung von Claude 2.1 ist eine Antwort auf die wachsende Nachfrage nach KI, die lange Dokumente präzise verarbeiten und analysieren kann

Dieses neue Upgrade bedeutet, dass Claude-Benutzer jetzt mit Dokumenten arbeiten können, die so umfangreich sind wie ganze Codebasen oder klassische literarische Epen, was das Potenzial für verschiedene Anwendungen von der juristischen Analyse bis zur Literaturkritik freisetzt.

AI-Forscher Greg Kamradt hat das Claude 2.1-Modell schnell auf die Probe gestellt. Er stellte fest, dass das Modell von OpenAI bei einer geringeren Anzahl von Token konsistenter ist, Claude jedoch je nach Aufforderung bei unterschiedlichen Längen unterschiedlichere Ergebnisse liefert.

„Ab etwa 90.000 Token begann die Leistung des Recalls am Ende des Dokuments zunehmend schlechter zu werden“, schloss er. Seine Untersuchung ergab ähnliche Verschlechterungen für GPT -4 Turbo bei etwa 65K Token. „Ich bin ein großer Fan von Anthropic – sie tragen dazu bei, die Grenzen der LLM-Leistung zu verschieben und leistungsstarke Werkzeuge für die Welt zu schaffen“, schrieb er.

Anthropics Engagement für die Verringerung von KI-Fehlern zeigt sich in der verbesserten Genauigkeit von Claude 2.1, das eine 50-prozentige Verringerung der Halluzinationsraten verspricht. Das bedeutet eine Verdoppelung der Wahrhaftigkeit im Vergleich zu Claude 2.0. Diese Verbesserungen wurden anhand einer Reihe komplexer, faktischer Fragen, die die derzeitigen Modellgrenzen herausfordern sollten, rigoros getestet. Wie TCN bereits berichtete, waren Halluzinationen eine der Schwächen von Claude. Eine solch drastische Steigerung der Genauigkeit würde das LLM in einen engeren Wettbewerb mit GPT-4 bringen.

Mit der Einführung einer Funktion zur Nutzung von API-Tools fügt sich Claude 2.1 auch nahtloser in die Arbeitsabläufe fortgeschrittener Nutzer ein und demonstriert seine Fähigkeit, verschiedene Funktionen zu orchestrieren, das Internet zu durchsuchen und Daten aus privaten Datenbanken abzurufen. Diese Funktion befindet sich zwar noch in der Beta-Phase, verspricht aber, den Nutzen von Claude über ein ganzes Spektrum von Operationen zu erweitern, von komplexen numerischen Schlussfolgerungen bis hin zu Produktempfehlungen.

Zusätzlich bietet Claude 2.1 von Anthropic „System-Prompts“, die die Interaktion zwischen dem Benutzer und der KI verbessern sollen. Diese Prompts ermöglichen es dem Benutzer, die Bühne für Claudes Aufgaben zu bereiten, indem er Rollen, Ziele oder Stile vorgibt und so Claudes Fähigkeit verbessert, in Rollenspielszenarien den Charakter zu bewahren, sich an Regeln zu halten und Antworten zu personalisieren. Dies ist vergleichbar mit den benutzerdefinierten Anweisungen von OpenAI, aber umfangreicher in Bezug auf den Kontext.

Beispielsweise könnte ein Benutzer Claude anweisen, den Tonfall eines technischen Analysten anzunehmen, wenn er einen Finanzbericht zusammenfasst, um sicherzustellen, dass die Ausgabe den professionellen Standards entspricht. Eine solche Anpassung über Systemaufforderungen kann die Genauigkeit erhöhen, Halluzinationen verringern und die Gesamtqualität eines Werks verbessern, da die Interaktionen präziser und kontextbezogener werden.

Allerdings ist das volle Potenzial von Claude 2.1 mit seinem 200K-Token-Kontextfenster den Claude Pro-Benutzern vorbehalten, so dass kostenlose Benutzer sich mit Claude 2 mit 100K-Token und einer Genauigkeit zwischen GPT 3,5 und GPT-4 begnügen müssen.

Die Auswirkungen der Veröffentlichung von Claude 2.1 werden die Dynamik in der KI-Branche beeinflussen. Während Unternehmen und Nutzer ihre KI-Optionen evaluieren, stellen die verbesserten Fähigkeiten von Claude 2.1 neue Überlegungen für diejenigen dar, die KI aufgrund ihrer Präzision und Anpassungsfähigkeit nutzen wollen.

Related Posts

Leave a Comment