Home » Etherscan wirbt mit ChatGPT-Integration, weist aber auf die Schwächen des Chatbots hin

Etherscan wirbt mit ChatGPT-Integration, weist aber auf die Schwächen des Chatbots hin

by v

Der beliebte Ethereum-Block-Explorer Etherscan integriert ChatGPT in seine Suite von Tools zur Analyse der Ethereum-Blockchain. Am Montag kündigte Etherscan den Start des Code Reader an, der sich derzeit in der Beta-Phase befindet und die ChatGPT-API in seine Analyseplattform integriert.

„Der Code Reader ist ein Werkzeug, das die Macht der KI nutzt, um den Benutzern die Möglichkeit zu geben, den Quellcode einer bestimmten Vertragsadresse abzurufen und zu interpretieren“, sagte Etherscan.

Ein Blockchain-Explorer, auch Block-Explorer genannt, ist eine Online-Suchmaschine, mit der Transaktionen und andere Informationen in einem Blockchain-Netzwerk eingesehen werden können. Zu den beliebten Block-Explorern gehören Etherscan für die Ethereum-Blockchain, Solscan für Solana und Blockchain.com für Bitcoin.

Etherscan tritt einem zunehmend überfüllten Club bei. Letzte Woche hat der führende Blockchain-Plattformentwickler Alchemy sein auf ChatGPT basierendes Tool AlchemyAI vorgestellt, das ein GPT-4-Plugin für die Blockchain-Exploration enthält. Im Mai brachte Solana Labs sein eigenes ChatGPT-Plugin auf den Markt.

Im Gegensatz zu ChatGPT-Plugins, die auf der Website des Chatbots laufen, läuft der Etherscan Code Reader auf der Etherscan-Plattform und erfordert einen OpenAI-API-Schlüssel, für den zusätzliche Kosten anfallen, unabhängig von einem ChatGPT Plus-Abonnement.

„Dies ist eine Beta-Version – bitte lassen Sie uns wissen, was wir Ihrer Meinung nach hinzufügen oder verbessern sollen!“ tweetete Etherscan.

Etherscan sagt, dass das Tool nur zu Informationszwecken dient und warnt die Nutzer davor, das, was ChatGPT sagt, für bare Münze zu nehmen, sich nicht auf sie zu verlassen, wenn es um Beweise oder Bug Bounties geht, und die Antworten immer zu überprüfen.

Dieser Haftungsausschluss bezieht sich auf das weit verbreitete Problem, dass KI-Chatbots bei der Beantwortung von Aufforderungen falsche und gefälschte Informationen erzeugen. Diese Tendenz wird als Halluzinationen bezeichnet.

KI-Halluzinationen beziehen sich auf Fälle, in denen eine KI unwahre Ergebnisse erzeugt, die nicht durch reale Daten gestützt werden. KI-Halluzinationen können falsche Inhalte, Nachrichten oder Informationen über Personen, Ereignisse oder Fakten sein. Im Mai gab OpenAI bekannt, dass es neue Trainingsmodelle einführt, um Halluzinationen zu verhindern

Related Posts

Leave a Comment