Popularny eksplorator bloków Ethereum, Etherscan, włącza ChatGPT do swojego zestawu narzędzi do analizy łańcucha bloków Ethereum. W poniedziałek Etherscan ogłosił uruchomienie Code Reader, obecnie w wersji beta, który integruje ChatGPT API ze swoją platformą analityczną.
„Code Reader to narzędzie, które wykorzystuje moc sztucznej inteligencji, aby zapewnić użytkownikom możliwość pobierania i interpretowania kodu źródłowego określonego adresu kontraktu” – powiedział Etherscan.
Code Reader (Beta)
Wykorzystaj moc sztucznej inteligencji, aby płynnie poznać dowolny kod źródłowy inteligentnego kontraktu! ✨ pic.twitter.com/GTbULisudk
– Etherscan (@etherscan) June 19, 2023
Eksplorator blockchain, znany również jako eksplorator bloków, to internetowa wyszukiwarka używana do przeglądania transakcji i innych informacji w sieci blockchain. Popularne eksploratory bloków obejmują Etherscan dla łańcucha blokowego Ethereum, Solscan dla Solana i Blockchain.com dla Bitcoin.
Etherscan dołącza do coraz bardziej zatłoczonego klubu. W zeszłym tygodniu wiodący deweloper platformy blockchain, Alchemy, uruchomił swoje narzędzie oparte na ChatGPT, AlchemyAI, które zawiera wtyczkę GPT-4 do eksploracji blockchain. W maju Solana Labs uruchomiła własną wtyczkę ChatGPT.
W przeciwieństwie do wtyczek ChatGPT, które działają na stronie internetowej chatbota, Etherscan Code Reader działa na platformie Etherscan i wymaga klucza API OpenAI za dodatkową opłatą niezależną od subskrypcji ChatGPT Plus.
„To jest w dużej mierze wersja beta – daj nam znać, co chciałbyś, abyśmy dodali lub poprawili!” napisał na Twitterze Etherscan.
Etherscan twierdzi, że narzędzie służy wyłącznie do celów informacyjnych i ostrzega użytkowników, aby nie brali tego, co mówi ChatGPT za dobrą monetę, nie polegali na nich w kwestii dowodów lub nagród za błędy, nie polegali na nich w kwestii dowodów lub nagród za błędy i zawsze weryfikowali odpowiedzi.
To zastrzeżenie odnosi się do powszechnego problemu generowania przez chatboty AI fałszywych i nieprawdziwych informacji podczas odpowiadania na monity. Tendencja ta nazywana jest halucynacją.
Halucynacje AI odnoszą się do przypadków, w których sztuczna inteligencja generuje nieprawdziwe wyniki niepoparte rzeczywistymi danymi. Halucynacje AI mogą być fałszywymi treściami, wiadomościami lub informacjami o ludziach, wydarzeniach lub faktach. W maju firma OpenAI ogłosiła, że wprowadza nowe modele szkoleniowe, aby pomóc w zapobieganiu halucynacjom.