Home » Etherscan рекламирует интеграцию ChatGPT, но подчеркивает недостатки чатбота

Etherscan рекламирует интеграцию ChatGPT, но подчеркивает недостатки чатбота

by v

Популярный исследователь блокчейна Ethereum компания Etherscan включает ChatGPT в свой набор инструментов для анализа блокчейна Ethereum. В понедельник Etherscan объявила о запуске бета-версии программы Code Reader, которая интегрирует API ChatGPT в свою аналитическую платформу.

«Code Reader — это инструмент, который использует мощь искусственного интеллекта, чтобы предоставить пользователям возможность получить и интерпретировать исходный код конкретного адреса контракта», — заявили в Etherscan.

Проводник блокчейна, также известный как блокчейн-проводник, — это онлайн-поисковая система, используемая для просмотра транзакций и другой информации в сети блокчейна. Популярные блокчейн-проводники включают Etherscan для блокчейна Ethereum, Solscan для Solana и Blockchain.com для Bitcoin.

Etherscan присоединяется ко все более переполненному клубу. На прошлой неделе ведущий разработчик блокчейн-платформы Alchemy запустил свой инструмент AlchemyAI, основанный на ChatGPT, который включает плагин GPT-4 для исследования блокчейна. В мае компания Solana Labs запустила свой собственный плагин ChatGPT.

В отличие от плагинов ChatGPT, которые работают на сайте чатбота, Etherscan Code Reader работает на платформе Etherscan и требует ключ API OpenAI за дополнительную плату отдельно от подписки ChatGPT Plus.

«Это в значительной степени бета-релиз — пожалуйста, дайте нам знать, что бы вы хотели добавить или улучшить!». написал Etherscan в Твиттере.

Etherscan утверждает, что инструмент предназначен только для информационных целей, и предупреждает пользователей не принимать слова ChatGPT за чистую монету, не полагаться на их доказательства или вознаграждения за ошибки, не полагаться на их доказательства или вознаграждения за ошибки и всегда проверять ответы.

Этот отказ от ответственности относится к широко распространенной проблеме, когда чат-боты ИИ генерируют ложную и фальшивую информацию, отвечая на подсказки. Такая тенденция называется галлюцинацией.

ИИ-галлюцинации относятся к случаям, когда ИИ генерирует неправдивые результаты, не подкрепленные реальными данными. Галлюцинации ИИ могут быть ложным контентом, новостями или информацией о людях, событиях или фактах. В мае OpenAI заявила, что вводит новые модели обучения, чтобы помочь предотвратить галлюцинации.

Related Posts

Leave a Comment