Populaire explorateur de blocs Ethereum, Etherscan intègre ChatGPT dans sa suite d’outils d’analyse de la blockchain Ethereum. Lundi, Etherscan a annoncé le lancement de Code Reader, actuellement en version bêta, qui intègre l’API ChatGPT dans sa plateforme d’analyse.
« Le Code Reader est un outil qui exploite la puissance de l’IA pour offrir aux utilisateurs la possibilité de récupérer et d’interpréter le code source d’une adresse de contrat spécifique », a déclaré Etherscan.
Code Reader (Beta)
Exploitez la puissance de l’IA pour vous renseigner de manière transparente sur le code source de n’importe quel contrat intelligent ! ✨ pic.twitter.com/GTbULisudk
– Etherscan (@etherscan) Le 19 juin 2023
Un explorateur de blockchain, également connu sous le nom d’explorateur de blocs, est un moteur de recherche en ligne utilisé pour visualiser les transactions et autres informations sur un réseau de blockchain. Parmi les explorateurs de blocs populaires, on peut citer Etherscan pour la blockchain Ethereum, Solscan pour Solana et Blockchain.com pour Bitcoin.
Etherscan rejoint un club de plus en plus encombré. La semaine dernière, le principal développeur de plateformes de blockchain, Alchemy, a lancé son outil basé sur le ChatGPT, AlchemyAI, qui comprend un plugin GPT-4 pour l’exploration de la blockchain. En mai, Solana Labs a lancé son propre plugin ChatGPT.
Contrairement aux plugins ChatGPT qui fonctionnent sur le site web du chatbot, le lecteur de codes Etherscan fonctionne sur la plateforme Etherscan et nécessite une clé API OpenAI à un coût supplémentaire distinct de l’abonnement ChatGPT Plus.
« Il s’agit d’une version bêta. N’hésitez pas à nous faire savoir ce que vous aimeriez que nous ajoutions ou améliorions ! a tweeté Etherscan.
Etherscan précise que l’outil est uniquement destiné à l’information et prévient les utilisateurs de ne pas prendre ce que dit ChatGPT pour argent comptant, de ne pas se fier à eux pour des preuves ou des primes de bogues, et de toujours vérifier les réponses.
Cette clause de non-responsabilité concerne le problème très répandu des chatbots IA qui génèrent de fausses informations lorsqu’ils répondent à des messages-guides. Cette tendance est appelée hallucination.
On parle d’hallucinations lorsqu’une IA génère des résultats erronés qui ne sont pas étayés par des données réelles. Les hallucinations de l’IA peuvent être de faux contenus, de fausses nouvelles ou de fausses informations sur des personnes, des événements ou des faits. En mai, l’OpenAI a déclaré qu’elle mettait en place de nouveaux modèles de formation pour aider à prévenir les hallucinations.