Популярният изследовател на блокове на Етериум Etherscan включва ChatGPT в своя набор от инструменти за анализ на блокчейна на Етериум. В понеделник Etherscan обяви пускането на Code Reader, който в момента е в бета-версия и интегрира ChatGPT API в своята платформа за анализи.
„Code Reader е инструмент, който използва силата на изкуствения интелект, за да предостави на потребителите възможността да извличат и тълкуват изходния код на конкретен адрес на договор“, заяви Etherscan.
Code Reader (бета версия)
Използвайте силата на изкуствения интелект, за да научите безпроблемно за изходния код на всеки интелигентен договор! ✨ pic.twitter.com/GTbULisudk
– Etherscan (@etherscan) June 19, 2023
Изследовател на блокчейн, известен също като изследовател на блокове, е онлайн търсачка, използвана за преглед на трансакции и друга информация в мрежа от блокчейн. Сред популярните блокови изследователи са Etherscan за блокчейн на Ethereum, Solscan за Solana и Blockchain.com за Bitcoin.
Etherscan се присъединява към един все по-претъпкан клуб. Миналата седмица водещият разработчик на блокчейн платформи Alchemy пусна на пазара своя базиран на ChatGPT инструмент AlchemyAI, който включва приставка GPT-4 за изследване на блокчейн. През май Solana Labs пусна своя собствена ChatGPT приставка.
За разлика от ChatGPT плъгините, които работят на уебсайта на чатбота, Etherscan Code Reader работи на платформата Etherscan и изисква OpenAI API ключ на допълнителна цена, отделно от абонамента за ChatGPT Plus.
„Това до голяма степен е бета версия – моля, кажете ни какво бихте искали да добавим или подобрим!“ Etherscan tweeted.
Etherscan казва, че инструментът е само за информационни цели и предупреждава потребителите да не приемат казаното от ChatGPT за чиста монета, да не разчитат на тях за доказателства или награди за грешки, да не разчитат на тях за доказателства или награди за грешки и винаги да проверяват отговорите.
Този отказ от отговорност се отнася до широко разпространения проблем с чатботовете с изкуствен интелект, които генерират невярна и фалшива информация, когато отговарят на подкани. Тази тенденция се нарича халюциниране.
Халюцинациите на ИИ се отнасят до случаите, когато ИИ генерира неверни резултати, които не са подкрепени с реални данни. Халюцинациите на ИИ могат да бъдат фалшиво съдържание, новини или информация за хора, събития или факти. През май OpenAI заяви, че въвежда нови модели за обучение, за да помогне за предотвратяването на халюцинации.