Популярный исследователь блокчейна Ethereum компания Etherscan включает ChatGPT в свой набор инструментов для анализа блокчейна Ethereum. В понедельник Etherscan объявила о запуске бета-версии программы Code Reader, которая интегрирует API ChatGPT в свою аналитическую платформу.
«Code Reader — это инструмент, который использует мощь искусственного интеллекта, чтобы предоставить пользователям возможность получить и интерпретировать исходный код конкретного адреса контракта», — заявили в Etherscan.
Code Reader (Beta)
Используйте мощь искусственного интеллекта для беспрепятственного получения информации об исходном коде любого смарт-контракта! ✨ pic.twitter.com/GTbULisudk
— Etherscan (@etherscan) 19 июня 2023
Проводник блокчейна, также известный как блокчейн-проводник, — это онлайн-поисковая система, используемая для просмотра транзакций и другой информации в сети блокчейна. Популярные блокчейн-проводники включают Etherscan для блокчейна Ethereum, Solscan для Solana и Blockchain.com для Bitcoin.
Etherscan присоединяется ко все более переполненному клубу. На прошлой неделе ведущий разработчик блокчейн-платформы Alchemy запустил свой инструмент AlchemyAI, основанный на ChatGPT, который включает плагин GPT-4 для исследования блокчейна. В мае компания Solana Labs запустила свой собственный плагин ChatGPT.
В отличие от плагинов ChatGPT, которые работают на сайте чатбота, Etherscan Code Reader работает на платформе Etherscan и требует ключ API OpenAI за дополнительную плату отдельно от подписки ChatGPT Plus.
«Это в значительной степени бета-релиз — пожалуйста, дайте нам знать, что бы вы хотели добавить или улучшить!». написал Etherscan в Твиттере.
Etherscan утверждает, что инструмент предназначен только для информационных целей, и предупреждает пользователей не принимать слова ChatGPT за чистую монету, не полагаться на их доказательства или вознаграждения за ошибки, не полагаться на их доказательства или вознаграждения за ошибки и всегда проверять ответы.
Этот отказ от ответственности относится к широко распространенной проблеме, когда чат-боты ИИ генерируют ложную и фальшивую информацию, отвечая на подсказки. Такая тенденция называется галлюцинацией.
ИИ-галлюцинации относятся к случаям, когда ИИ генерирует неправдивые результаты, не подкрепленные реальными данными. Галлюцинации ИИ могут быть ложным контентом, новостями или информацией о людях, событиях или фактах. В мае OpenAI заявила, что вводит новые модели обучения, чтобы помочь предотвратить галлюцинации.