A empresa de análise de criptografia Elliptic está integrando inteligência artificial em seu kit de ferramentas para rastrear transações de blockchain e lidar com a deteção de risco.
Usando o chatbot ChatGPT da OpenAI, a empresa afirma que será capaz de organizar os dados com mais rapidez e em maior quantidade. No entanto, implementou certas limitações de uso e também não utiliza plug-ins ChatGPT.
“Como uma organização na qual confiam os maiores bancos, reguladores, instituições financeiras, governos e autoridades policiais do mundo, é importante manter nossa inteligência e nossos dados seguros”, disse um porta-voz da Elliptic à TCN. “É por isso que não usamos o ChatGPT para criar ou modificar dados, procurar informações ou monitorizar transacções. “
Temos o prazer de anunciar a integração do ChatGPT nos nossos esforços de recolha de informações e investigação fora da cadeia.
Leia o comunicado de imprensa completo aquihttps://t.co/YV5BYPCjW2knowexactly ChatGPT blockchain– Elliptic (@elliptic) 2 de junho de 2023
Lançada em 2013, a Elliptic fornece às instituições e às autoridades policiais pesquisas analíticas de blockchain para rastrear cibercriminosos e conformidade regulatória relacionada à criptomoeda. Em maio, por exemplo, a Elliptic informou que várias empresas chinesas que vendiam os produtos químicos para fabricar fentanil aceitavam criptomoedas, incluindo Bitcoin. A senadora americana Elizabeth Warren usou o relatório para pedir novamente regulamentações mais rígidas sobre criptomoedas.
A Elliptic usará o ChatGPT para complementar seus processos de coleta e organização de dados baseados em humanos para aumentar os esforços de sua equipe, o que, segundo ela, permitirá dobrar a precisão e a escalabilidade. Ao mesmo tempo, os grandes modelos de linguagem (LLM) organizam os dados.
“Os nossos funcionários aproveitam o ChatGPT para melhorar os nossos conjuntos de dados e conhecimentos”, disse o porta-voz. “Seguimos e aderimos a uma política de uso de IA e temos uma estrutura robusta de validação de modelo.”
Como a Elliptic não está usando o ChatGPT para gerar informações, a empresa disse que não está preocupada com “alucinações” de IA ou informações falsas. As alucinações de IA referem-se a casos em que uma IA gera resultados inesperados ou falsos não apoiados por dados do mundo real.
Os chatbots de IA, como o ChatGPT, têm sido alvo de um maior escrutínio por fornecerem, de forma convincente, informações falsas sobre pessoas, locais e eventos. A OpenAI intensificou os seus esforços utilizando a matemática para lidar com as chamadas alucinações no treino dos seus modelos, considerando-as um passo fundamental para a construção de uma inteligência artificial geral (AGI) alinhada.
“Nossos clientes nos procuram para saber exatamente sua exposição ao risco”, disse o CTO da Elliptic, Jackson Hull, em um comunicado. “A integração do ChatGPT permite-nos aumentar a nossa inteligência, dando aos nossos clientes uma visão do risco que não conseguem obter em mais lado nenhum. “