Home » Krypto-Tracking-Firma Elliptic nutzt jetzt KI, um Hacker zu fangen

Krypto-Tracking-Firma Elliptic nutzt jetzt KI, um Hacker zu fangen

by Patricia

Die Krypto-Analysefirma Elliptic integriert künstliche Intelligenz in ihr Toolkit zur Verfolgung von Blockchain-Transaktionen und zur Erkennung von Risiken.

Durch den Einsatz des Chatbots ChatGPT von OpenAI ist das Unternehmen nach eigenen Angaben in der Lage, Daten schneller und in größeren Mengen zu organisieren. Es hat jedoch bestimmte Nutzungsbeschränkungen eingeführt und verwendet auch keine ChatGPT-Plug-ins.

„Als ein Unternehmen, dem die größten Banken, Regulierungsbehörden, Finanzinstitute, Regierungen und Strafverfolgungsbehörden der Welt vertrauen, ist es wichtig, dass unsere Informationen und Daten sicher sind“, sagte ein Sprecher von Elliptic gegenüber TCN. „Deshalb verwenden wir ChatGPT nicht, um Daten zu erstellen oder zu verändern, nach Informationen zu suchen oder Transaktionen zu überwachen. „

Elliptic wurde 2013 gegründet und bietet Institutionen und Strafverfolgungsbehörden Blockchain-Analysen zur Verfolgung von Cyberkriminellen und zur Einhaltung von Vorschriften im Zusammenhang mit Kryptowährungen. Im Mai berichtete Elliptic beispielsweise, dass mehrere chinesische Unternehmen, die Chemikalien zur Herstellung von Fentanyl verkaufen, Kryptowährungen, einschließlich Bitcoin, akzeptieren. US-Senatorin Elizabeth Warren nutzte den Bericht, um erneut strengere Vorschriften für Kryptowährungen zu fordern.

Elliptic wird ChatGPT einsetzen, um seine auf Menschen basierenden Datenerfassungs- und Organisationsprozesse zu ergänzen und die Arbeit seines Teams zu verstärken, was laut Elliptic eine Verdoppelung der Genauigkeit und Skalierbarkeit ermöglicht. Gleichzeitig organisieren die großen Sprachmodelle (LLM) die Daten.

„Unsere Mitarbeiter nutzen ChatGPT, um unsere Datensätze und Erkenntnisse zu verbessern“, sagte der Sprecher. „Wir befolgen und halten uns an eine KI-Nutzungsrichtlinie und verfügen über einen robusten Modellvalidierungsrahmen.“

Da Elliptic ChatGPT nicht verwendet, um Informationen zu generieren, ist das Unternehmen nach eigenen Angaben nicht über KI-Halluzinationen“ oder falsche Informationen besorgt. KI-Halluzinationen beziehen sich auf Fälle, in denen eine KI unerwartete oder unwahre Ergebnisse generiert, die nicht durch reale Daten gestützt werden.

KI-Chatbots wie ChatGPT sind verstärkt in die Kritik geraten, weil sie überzeugend gefälschte Informationen über Menschen, Orte und Ereignisse liefern. OpenAI hat seine Bemühungen verstärkt, diese so genannten Halluzinationen beim Training seiner Modelle mit Hilfe der Mathematik anzugehen, und bezeichnet dies als einen entscheidenden Schritt zum Aufbau einer angepassten künstlichen allgemeinen Intelligenz (AGI).

„Unsere Kunden kommen zu uns, um genau zu wissen, wie hoch ihr Risiko ist“, sagte Elliptic CTO Jackson Hull in einer Erklärung. „Die Integration von ChatGPT ermöglicht es uns, unsere Intelligenz zu skalieren und unseren Kunden einen Blick auf das Risiko zu geben, den sie nirgendwo anders bekommen können.“

Related Posts

Leave a Comment