Home » L’entreprise de suivi des cryptomonnaies Elliptic utilise désormais l’IA pour attraper les pirates informatiques

L’entreprise de suivi des cryptomonnaies Elliptic utilise désormais l’IA pour attraper les pirates informatiques

by Tim

La société d’analyse de crypto-monnaies Elliptic intègre l’intelligence artificielle dans sa boîte à outils pour suivre les transactions de la blockchain et gérer la détection des risques.

En utilisant le chatbot ChatGPT d’OpenAI, l’entreprise affirme qu’elle sera en mesure d’organiser les données plus rapidement et en plus grande quantité. Cependant, elle a mis en place certaines limites d’utilisation et n’utilise pas non plus de plugins ChatGPT.

« En tant qu’organisation à laquelle font confiance les plus grandes banques du monde, les régulateurs, les institutions financières, les gouvernements et les forces de l’ordre, il est important de sécuriser nos renseignements et nos données », a déclaré un porte-parole d’Elliptic à TCN. « C’est pourquoi nous n’utilisons pas ChatGPT pour créer ou modifier des données, rechercher des renseignements ou surveiller des transactions. « 

Lancée en 2013, Elliptic fournit aux institutions et aux forces de l’ordre des recherches analytiques sur la blockchain pour la traque des cybercriminels et la conformité réglementaire liée aux crypto-monnaies. En mai, par exemple, Elliptic a signalé que plusieurs entreprises chinoises vendant les produits chimiques nécessaires à la fabrication du fentanyl acceptaient les crypto-monnaies, y compris le bitcoin. La sénatrice américaine Elizabeth Warren s’est servie de ce rapport pour appeler à nouveau à une réglementation plus stricte des crypto-monnaies.

Elliptic utilisera ChatGPT pour compléter ses processus humains de collecte et d’organisation des données afin d’accroître les efforts de son équipe, ce qui, selon elle, lui permettra de doubler la précision et l’évolutivité. Dans le même temps, les grands modèles de langage (LLM) organisent les données.

« Nos employés utilisent ChatGPT pour améliorer nos ensembles de données et nos connaissances », a déclaré le porte-parole. « Nous suivons et adhérons à une politique d’utilisation de l’IA et disposons d’un cadre solide de validation des modèles.

Étant donné qu’Elliptic n’utilise pas ChatGPT pour générer des informations, l’entreprise a déclaré qu’elle n’était pas préoccupée par les « hallucinations » de l’IA ou les fausses informations. Les hallucinations de l’IA se réfèrent à des cas dans lesquels une IA génère des résultats inattendus ou faux qui ne sont pas étayés par des données du monde réel.

Les chatbots d’IA tels que ChatGPT ont fait l’objet d’un examen approfondi pour avoir fourni de manière convaincante des informations falsifiées sur des personnes, des lieux et des événements. OpenAI a intensifié ses efforts en utilisant les mathématiques pour traiter ces soi-disant hallucinations dans l’entraînement de ses modèles, estimant qu’il s’agit d’une étape cruciale vers la construction d’une intelligence générale artificielle (AGI) alignée.

« Nos clients viennent nous voir pour connaître exactement leur exposition au risque », a déclaré Jackson Hull, directeur technique d’Elliptic, dans un communiqué. « L’intégration de ChatGPT nous permet d’accroître notre intelligence et de donner à nos clients une vision du risque qu’ils ne peuvent obtenir nulle part ailleurs. « 

Related Posts

Leave a Comment