Home » Etherscan prijst ChatGPT-integratie aan maar benadrukt de tekortkomingen van de Chatbot

Etherscan prijst ChatGPT-integratie aan maar benadrukt de tekortkomingen van de Chatbot

by Patricia

Populaire Ethereum block explorer Etherscan voegt ChatGPT toe aan zijn suite van tools voor het analyseren van de Ethereum blockchain. Op maandag kondigde Etherscan de lancering aan van Code Reader, momenteel in bèta, die de ChatGPT API integreert in zijn analyseplatform.

“De Code Reader is een tool die gebruikmaakt van de kracht van AI om gebruikers de mogelijkheid te bieden om de broncode van een specifiek contractadres op te halen en te interpreteren,” aldus Etherscan.

Een blockchainverkenner, ook bekend als een blokverkenner, is een online zoekmachine die wordt gebruikt om transacties en andere informatie op een blockchainnetwerk te bekijken. Populaire block explorers zijn onder andere Etherscan voor de Ethereum blockchain, Solscan voor Solana, en Blockchain.com voor Bitcoin.

Etherscan sluit zich aan bij een steeds drukkere club. Vorige week lanceerde de toonaangevende ontwikkelaar van het blockchainplatform Alchemy zijn op ChatGPT gebaseerde tool, AlchemyAI, die een GPT-4 plugin bevat voor blockchainverkenning. In mei lanceerde Solana Labs zijn eigen ChatGPT-plugin.

In tegenstelling tot ChatGPT-plugins die draaien op de website van de chatbot, draait de Etherscan Code Reader op het Etherscan-platform en vereist een OpenAI API-sleutel tegen een extra prijs los van een ChatGPT Plus-abonnement.

“Dit is heel erg een Beta release-please laat ons weten wat je zou willen dat we toevoegen of verbeteren!” Etherscan tweette.

Etherscan zegt dat de tool alleen voor informatieve doeleinden is en waarschuwt gebruikers niet zomaar aan te nemen wat ChatGPT zegt, niet op hen te vertrouwen voor bewijs of bug bounties, niet op hen te vertrouwen voor bewijs of bug bounties, en altijd de antwoorden te verifiëren.

Deze disclaimer heeft betrekking op het wijdverspreide probleem van AI-chatbots die valse en nep-informatie genereren wanneer ze reageren op prompts. Deze neiging wordt hallucineren genoemd.

AI-hallucinaties verwijzen naar gevallen waarin een AI onware resultaten genereert die niet worden ondersteund door gegevens uit de echte wereld. AI-hallucinaties kunnen valse inhoud, nieuws of informatie over mensen, gebeurtenissen of feiten zijn. In mei zei OpenAI dat het nieuwe trainingsmodellen instelde om hallucinaties te helpen voorkomen.

Related Posts

Leave a Comment