Криптоаналитическая компания Elliptic интегрирует искусственный интеллект в свой инструментарий для отслеживания транзакций блокчейна и выявления рисков.
Используя чат-бота ChatGPT от OpenAI, компания утверждает, что сможет быстрее и в больших объемах организовывать данные. Однако компания ввела определенные ограничения на использование и не использует плагины ChatGPT.
«Как организации, которой доверяют крупнейшие мировые банки, регуляторы, финансовые учреждения, правительства и правоохранительные органы, очень важно обеспечить безопасность наших разведданных», — сказал TCN представитель Elliptic. «Именно поэтому мы не используем ChatGPT для создания или изменения данных, поиска разведданных или мониторинга транзакций. «
Мы очень рады объявить об интеграции ChatGPT в наши усилия по сбору разведданных и исследований вне сети.
Полный пресс-релиз читайте здесьhttps://t.co/YV5BYPCjW2knowexactly ChatGPT blockchain— Elliptic (@elliptic) June 2, 2023
Запущенная в 2013 году, компания Elliptic предоставляет учреждениям и правоохранительным органам аналитические исследования блокчейн для отслеживания киберпреступников и соблюдения нормативных требований, связанных с криптовалютой. Например, в мае Elliptic сообщила, что несколько китайских компаний, продающих химикаты для производства фентанила, принимали криптовалюты, включая биткоин. Сенатор США Элизабет Уоррен использовала этот отчет, чтобы вновь призвать к ужесточению регулирования криптовалют.
Компания Elliptic будет использовать ChatGPT в дополнение к своим процессам сбора и организации данных, основанных на человеческом факторе, что позволит ей удвоить точность и масштабируемость. В то же время большие языковые модели (LLM) организуют данные.
«Наши сотрудники используют ChatGPT для расширения наших наборов данных и углубления понимания», — сказал представитель компании. «Мы следуем и придерживаемся политики использования ИИ и имеем надежную систему проверки моделей».
Поскольку Elliptic не использует ChatGPT для генерирования информации, компания заявила, что ее не беспокоят «галлюцинации» ИИ или ложная информация. Галлюцинации ИИ относятся к случаям, когда ИИ генерирует неожиданные или неправдивые результаты, не подкрепленные реальными данными.
Чатботы ИИ, такие как ChatGPT, стали объектом повышенного внимания за убедительное предоставление фальсифицированной информации о людях, местах и событиях. OpenAI активизировала усилия по использованию математики для устранения этих так называемых галлюцинаций при обучении своих моделей, называя это важнейшим шагом на пути к созданию согласованного искусственного интеллекта общего назначения (AGI).
«Наши клиенты обращаются к нам, чтобы точно знать, насколько они подвержены риску», — сказал в своем заявлении технический директор Elliptic Джексон Халл. «Интеграция ChatGPT позволяет нам увеличить масштаб нашего интеллекта, давая нашим клиентам представление о рисках, которое они не могут получить нигде больше».