Home » Firma Elliptic zajmująca się śledzeniem kryptowalut wykorzystuje sztuczną inteligencję do łapania hakerów

Firma Elliptic zajmująca się śledzeniem kryptowalut wykorzystuje sztuczną inteligencję do łapania hakerów

by v

Firma analityczna Elliptic integruje sztuczną inteligencję ze swoim zestawem narzędzi do śledzenia transakcji blockchain i wykrywania ryzyka.

Korzystając z chatbota ChatGPT firmy OpenAI, firma twierdzi, że będzie w stanie organizować dane szybciej i w większych ilościach. Wdrożyła jednak pewne ograniczenia użytkowania i nie wykorzystuje również wtyczek ChatGPT.

„Jako organizacja, której ufają największe banki na świecie, organy regulacyjne, instytucje finansowe, rządy i organy ścigania, ważne jest, aby nasze informacje i dane były bezpieczne” – powiedział TCN rzecznik Elliptic. „Dlatego nie używamy ChatGPT do tworzenia lub modyfikowania danych, wyszukiwania danych wywiadowczych lub monitorowania transakcji.”

Założona w 2013 r. firma Elliptic zapewnia instytucjom i organom ścigania badania analityczne blockchain do śledzenia cyberprzestępców i zgodności z przepisami związanymi z kryptowalutą. Na przykład w maju Elliptic poinformował, że kilka chińskich firm sprzedających chemikalia do produkcji fentanylu akceptuje kryptowaluty, w tym Bitcoin. Senator USA Elizabeth Warren wykorzystała ten raport, aby ponownie wezwać do zaostrzenia przepisów dotyczących kryptowalut.

Elliptic wykorzysta ChatGPT do uzupełnienia procesów gromadzenia i organizacji danych opartych na ludziach, aby zwiększyć wysiłki swojego zespołu, co, jak twierdzi, pozwoli mu podwoić dokładność i skalowalność. Jednocześnie duże modele językowe (LLM) organizują dane.

„Nasi pracownicy wykorzystują ChatGPT do ulepszania naszych zbiorów danych i spostrzeżeń” – powiedział rzecznik. „Przestrzegamy zasad korzystania ze sztucznej inteligencji i mamy solidne ramy walidacji modeli”.

Ponieważ Elliptic nie używa ChatGPT do generowania informacji, firma stwierdziła, że nie obawia się „halucynacji” sztucznej inteligencji ani fałszywych informacji. Halucynacje AI odnoszą się do przypadków, w których sztuczna inteligencja generuje nieoczekiwane lub nieprawdziwe wyniki, które nie są poparte danymi ze świata rzeczywistego.
Chatboty

AI, takie jak ChatGPT, zostały poddane wzmożonej kontroli za przekonujące dostarczanie sfałszowanych informacji o ludziach, miejscach i wydarzeniach. OpenAI zintensyfikowało wysiłki, wykorzystując matematykę do radzenia sobie z tak zwanymi halucynacjami podczas szkolenia swoich modeli, nazywając to krytycznym krokiem w kierunku zbudowania dostosowanej sztucznej inteligencji ogólnej (AGI).

„Nasi klienci przychodzą do nas, aby dokładnie poznać swoją ekspozycję na ryzyko” – powiedział w oświadczeniu Jackson Hull, CTO Elliptic. „Integracja ChatGPT pozwala nam skalować naszą inteligencję, dając naszym klientom wgląd w ryzyko, którego nie mogą uzyskać nigdzie indziej.”

Related Posts

Leave a Comment