Home » Etherscan zachwala integrację ChatGPT, ale podkreśla wady Chatbota

Etherscan zachwala integrację ChatGPT, ale podkreśla wady Chatbota

by Tim

Popularny eksplorator bloków Ethereum, Etherscan, włącza ChatGPT do swojego zestawu narzędzi do analizy łańcucha bloków Ethereum. W poniedziałek Etherscan ogłosił uruchomienie Code Reader, obecnie w wersji beta, który integruje ChatGPT API ze swoją platformą analityczną.

„Code Reader to narzędzie, które wykorzystuje moc sztucznej inteligencji, aby zapewnić użytkownikom możliwość pobierania i interpretowania kodu źródłowego określonego adresu kontraktu” – powiedział Etherscan.

Eksplorator blockchain, znany również jako eksplorator bloków, to internetowa wyszukiwarka używana do przeglądania transakcji i innych informacji w sieci blockchain. Popularne eksploratory bloków obejmują Etherscan dla łańcucha blokowego Ethereum, Solscan dla Solana i Blockchain.com dla Bitcoin.

Etherscan dołącza do coraz bardziej zatłoczonego klubu. W zeszłym tygodniu wiodący deweloper platformy blockchain, Alchemy, uruchomił swoje narzędzie oparte na ChatGPT, AlchemyAI, które zawiera wtyczkę GPT-4 do eksploracji blockchain. W maju Solana Labs uruchomiła własną wtyczkę ChatGPT.

W przeciwieństwie do wtyczek ChatGPT, które działają na stronie internetowej chatbota, Etherscan Code Reader działa na platformie Etherscan i wymaga klucza API OpenAI za dodatkową opłatą niezależną od subskrypcji ChatGPT Plus.

„To jest w dużej mierze wersja beta – daj nam znać, co chciałbyś, abyśmy dodali lub poprawili!” napisał na Twitterze Etherscan.

Etherscan twierdzi, że narzędzie służy wyłącznie do celów informacyjnych i ostrzega użytkowników, aby nie brali tego, co mówi ChatGPT za dobrą monetę, nie polegali na nich w kwestii dowodów lub nagród za błędy, nie polegali na nich w kwestii dowodów lub nagród za błędy i zawsze weryfikowali odpowiedzi.

To zastrzeżenie odnosi się do powszechnego problemu generowania przez chatboty AI fałszywych i nieprawdziwych informacji podczas odpowiadania na monity. Tendencja ta nazywana jest halucynacją.

Halucynacje AI odnoszą się do przypadków, w których sztuczna inteligencja generuje nieprawdziwe wyniki niepoparte rzeczywistymi danymi. Halucynacje AI mogą być fałszywymi treściami, wiadomościami lub informacjami o ludziach, wydarzeniach lub faktach. W maju firma OpenAI ogłosiła, że wprowadza nowe modele szkoleniowe, aby pomóc w zapobieganiu halucynacjom.

Related Posts

Leave a Comment