Home » A empresa de rastreamento de criptografia Elliptic agora está usando IA para capturar hackers

A empresa de rastreamento de criptografia Elliptic agora está usando IA para capturar hackers

by v

A empresa de análise de criptografia Elliptic está integrando inteligência artificial em seu kit de ferramentas para rastrear transações de blockchain e lidar com a deteção de risco.

Usando o chatbot ChatGPT da OpenAI, a empresa afirma que será capaz de organizar os dados com mais rapidez e em maior quantidade. No entanto, implementou certas limitações de uso e também não utiliza plug-ins ChatGPT.

“Como uma organização na qual confiam os maiores bancos, reguladores, instituições financeiras, governos e autoridades policiais do mundo, é importante manter nossa inteligência e nossos dados seguros”, disse um porta-voz da Elliptic à TCN. “É por isso que não usamos o ChatGPT para criar ou modificar dados, procurar informações ou monitorizar transacções. “

Lançada em 2013, a Elliptic fornece às instituições e às autoridades policiais pesquisas analíticas de blockchain para rastrear cibercriminosos e conformidade regulatória relacionada à criptomoeda. Em maio, por exemplo, a Elliptic informou que várias empresas chinesas que vendiam os produtos químicos para fabricar fentanil aceitavam criptomoedas, incluindo Bitcoin. A senadora americana Elizabeth Warren usou o relatório para pedir novamente regulamentações mais rígidas sobre criptomoedas.

A Elliptic usará o ChatGPT para complementar seus processos de coleta e organização de dados baseados em humanos para aumentar os esforços de sua equipe, o que, segundo ela, permitirá dobrar a precisão e a escalabilidade. Ao mesmo tempo, os grandes modelos de linguagem (LLM) organizam os dados.

“Os nossos funcionários aproveitam o ChatGPT para melhorar os nossos conjuntos de dados e conhecimentos”, disse o porta-voz. “Seguimos e aderimos a uma política de uso de IA e temos uma estrutura robusta de validação de modelo.”

Como a Elliptic não está usando o ChatGPT para gerar informações, a empresa disse que não está preocupada com “alucinações” de IA ou informações falsas. As alucinações de IA referem-se a casos em que uma IA gera resultados inesperados ou falsos não apoiados por dados do mundo real.
Os chatbots de IA, como o ChatGPT, têm sido alvo de um maior escrutínio por fornecerem, de forma convincente, informações falsas sobre pessoas, locais e eventos. A OpenAI intensificou os seus esforços utilizando a matemática para lidar com as chamadas alucinações no treino dos seus modelos, considerando-as um passo fundamental para a construção de uma inteligência artificial geral (AGI) alinhada.

“Nossos clientes nos procuram para saber exatamente sua exposição ao risco”, disse o CTO da Elliptic, Jackson Hull, em um comunicado. “A integração do ChatGPT permite-nos aumentar a nossa inteligência, dando aos nossos clientes uma visão do risco que não conseguem obter em mais lado nenhum. “

Related Posts

Leave a Comment