Home » Etherscan se chlubí integrací ChatGPT, ale upozorňuje na nedostatky chatbota

Etherscan se chlubí integrací ChatGPT, ale upozorňuje na nedostatky chatbota

by Tim

Populární průzkumník bloků Etherea Etherscan zařazuje ChatGPT do své sady nástrojů pro analýzu blockchainu Etherea. V pondělí společnost Etherscan oznámila spuštění nástroje Code Reader, který je v současné době ve fázi beta a který integruje rozhraní API ChatGPT do své analytické platformy.

„Code Reader je nástroj, který využívá sílu umělé inteligence a poskytuje uživatelům možnost získat a interpretovat zdrojový kód konkrétní adresy kontraktu,“ uvedla společnost Etherscan.

Průzkumník blockchainu, známý také jako průzkumník bloků, je online vyhledávač sloužící k prohlížení transakcí a dalších informací v síti blockchain. Mezi oblíbené block explorery patří Etherscan pro blockchain Ethereum, Solscan pro Solana a Blockchain.com pro Bitcoin.

Etherscan se připojuje ke stále přeplněnějšímu klubu. Minulý týden přední vývojář blockchainové platformy Alchemy uvedl na trh svůj nástroj AlchemyAI založený na ChatGPT, který obsahuje zásuvný modul GPT-4 pro průzkum blockchainu. V květnu spustila svůj vlastní plugin ChatGPT společnost Solana Labs.

Na rozdíl od pluginů ChatGPT, které běží na webových stránkách chatbota, čtečka kódů Etherscan běží na platformě Etherscan a vyžaduje klíč API OpenAI za příplatek oddělený od předplatného ChatGPT Plus.

„Toto je do značné míry beta verze – dejte nám prosím vědět, co byste chtěli, abychom přidali nebo vylepšili!“ Etherscan tweeted.

Etherscan uvádí, že nástroj slouží pouze pro informační účely, a varuje uživatele, aby nebrali to, co ChatGPT říká, za bernou minci, nespoléhali se na ně, pokud jde o důkazy nebo odměny za chyby, nespoléhali se na ně, pokud jde o důkazy nebo odměny za chyby, a odpovědi vždy ověřovali.

Toto zřeknutí se odpovědnosti se týká rozšířeného problému chatbotů s umělou inteligencí, kteří při odpovědích na výzvy generují nepravdivé a falešné informace. Tato tendence se nazývá halucinace.

Halucinace umělé inteligence se týkají případů, kdy umělá inteligence generuje nepravdivé výsledky, které nejsou podloženy reálnými daty. Halucinace AI mohou mít podobu falešného obsahu, zpráv nebo informací o osobách, událostech či faktech. V květnu společnost OpenAI uvedla, že zavádí nové tréninkové modely, které mají pomoci halucinacím předcházet.

Related Posts

Leave a Comment