El popular explorador de bloques Ethereum, Etherscan, está integrando ChatGPT en su conjunto de herramientas para analizar la cadena de bloques Ethereum. El lunes, Etherscan anunció el lanzamiento de Code Reader, actualmente en fase beta, que integra la API ChatGPT en su plataforma de análisis.
«Code Reader es una herramienta que aprovecha el poder de la IA para proporcionar a los usuarios la capacidad de recuperar e interpretar el código fuente de una dirección de contrato específica», dijo Etherscan.
Lector de Códigos (Beta)
¡Aprovecha el poder de la IA para aprender sin problemas sobre cualquier código fuente de contrato inteligente! ✨ pic.twitter.com/GTbULisudk
– Etherscan (@etherscan) 19 de Junio de 2023
Un explorador de blockchain, también conocido como explorador de bloques, es un motor de búsqueda en línea utilizado para ver transacciones y otra información en una red de blockchain. Entre los exploradores de bloques más populares se encuentran Etherscan para la blockchain de Ethereum, Solscan para Solana y Blockchain.com para Bitcoin.
Etherscan se une a un club cada vez más concurrido. La semana pasada, el desarrollador líder de plataformas blockchain Alchemy lanzó su herramienta basada en ChatGPT, AlchemyAI, que incluye un plugin GPT-4 para la exploración de blockchain. En mayo, Solana Labs lanzó su propio complemento ChatGPT.
A diferencia de los plugins ChatGPT que se ejecutan en el sitio web del chatbot, el Etherscan Code Reader se ejecuta en la plataforma Etherscan y requiere una clave API OpenAI a un coste adicional independiente de una suscripción ChatGPT Plus.
«Esta es en gran medida una versión Beta-¡por favor, háganos saber lo que le gustaría que añadamos o mejoremos!» Etherscan tuiteó.
Etherscan dice que la herramienta es sólo para fines informativos y advierte a los usuarios no tomar lo que ChatGPT dice a su valor nominal, no confiar en ellos para pruebas o recompensas de errores, no confiar en ellos para pruebas o recompensas de errores, y siempre verificar las respuestas.
Este descargo de responsabilidad se refiere al problema generalizado de los chatbots de IA que generan información falsa y falsificada cuando responden a las solicitudes. Esta tendencia se denomina alucinación.
Las alucinaciones de IA se refieren a casos en los que una IA genera resultados falsos no respaldados por datos del mundo real. Las alucinaciones de la IA pueden ser contenidos, noticias o información falsos sobre personas, acontecimientos o hechos. En mayo, OpenAI dijo que estaba introduciendo nuevos modelos de entrenamiento para ayudar a prevenir las alucinaciones.