Home » Etherscan pubblicizza l’integrazione di ChatGPT ma evidenzia i difetti del chatbot

Etherscan pubblicizza l’integrazione di ChatGPT ma evidenzia i difetti del chatbot

by v

Il popolare esploratore di blocchi Ethereum Etherscan sta integrando ChatGPT nella sua suite di strumenti per l’analisi della blockchain di Ethereum. Lunedì Etherscan ha annunciato il lancio di Code Reader, attualmente in versione beta, che integra l’API di ChatGPT nella sua piattaforma di analisi.

“Il Code Reader è uno strumento che sfrutta la potenza dell’intelligenza artificiale per fornire agli utenti la possibilità di recuperare e interpretare il codice sorgente di uno specifico indirizzo di contratto”, ha dichiarato Etherscan.

Un blockchain explorer, noto anche come block explorer, è un motore di ricerca online utilizzato per visualizzare transazioni e altre informazioni su una rete blockchain. Tra i block explorer più diffusi ci sono Etherscan per la blockchain di Ethereum, Solscan per Solana e Blockchain.com per Bitcoin.

Etherscan si unisce a un club sempre più affollato. La scorsa settimana, Alchemy, sviluppatore leader di piattaforme blockchain, ha lanciato il suo strumento basato su ChatGPT, AlchemyAI, che include un plugin GPT-4 per l’esplorazione della blockchain. A maggio, Solana Labs ha lanciato il proprio plugin ChatGPT.

A differenza dei plugin ChatGPT che vengono eseguiti sul sito web del chatbot, Etherscan Code Reader funziona sulla piattaforma Etherscan e richiede una chiave API OpenAI a un costo aggiuntivo separato dall’abbonamento a ChatGPT Plus.

“Questa è una release beta: fateci sapere cosa vorreste che aggiungessimo o migliorassimo!”. Etherscan ha twittato.

Etherscan afferma che lo strumento è solo a scopo informativo e avverte gli utenti di non prendere al valore nominale ciò che ChatGPT dice, di non fare affidamento su di loro per prove o bug bounty, di non fare affidamento su di loro per prove o bug bounty e di verificare sempre le risposte.

Questa clausola di esclusione di responsabilità riguarda il problema diffuso dei chatbot AI che generano informazioni false e fasulle quando rispondono alle richieste. Questa tendenza è chiamata allucinazione.

Le allucinazioni dell’IA si riferiscono ai casi in cui un’IA genera risultati non veritieri non supportati da dati reali. Le allucinazioni dell’IA possono essere contenuti, notizie o informazioni false su persone, eventi o fatti. A maggio, OpenAI ha dichiarato di aver istituito nuovi modelli di addestramento per aiutare a prevenire le allucinazioni.

Related Posts

Leave a Comment