Home » Cyberprzestępczość oparta na sztucznej inteligencji eksploduje w 2024 roku: CrowdStrike Executive

Cyberprzestępczość oparta na sztucznej inteligencji eksploduje w 2024 roku: CrowdStrike Executive

by Tim

Nowy rok przyniesie nowe zagrożenia cyberbezpieczeństwa oparte na sztucznej inteligencji, powiedział we wtorek dyrektor ds. bezpieczeństwa CrowdStrike, Shawn Henry, w wywiadzie dla CBS Mornings.

„Myślę, że jest to poważny powód do niepokoju dla wszystkich” – powiedział Henry.

„Sztuczna inteligencja naprawdę oddała to niezwykle potężne narzędzie w ręce przeciętnego człowieka i sprawiła, że stał się on niewiarygodnie bardziej zdolny” – wyjaśnił. „Tak więc przeciwnicy wykorzystują sztuczną inteligencję, tę nową innowację, do pokonywania różnych możliwości cyberbezpieczeństwa w celu uzyskania dostępu do sieci korporacyjnych”.

Henry zwrócił uwagę na wykorzystanie sztucznej inteligencji do penetracji sieci korporacyjnych, a także do rozpowszechniania dezinformacji w Internecie przy użyciu coraz bardziej wyrafinowanych deepfake’ów wideo, audio i tekstowych.

Henry podkreślił potrzebę spojrzenia na źródło informacji i nigdy nie przyjmowania czegoś opublikowanego online za dobrą monetę.

„Musisz sprawdzić, skąd to pochodzi” – powiedział Henry. „Kto opowiada tę historię, jaka jest jego motywacja i czy można ją zweryfikować za pomocą wielu źródeł?”.

„Jest to niezwykle trudne, ponieważ ludzie – kiedy używają wideo – mają 15 lub 20 sekund, nie mają czasu lub często nie podejmują wysiłku, aby uzyskać te dane, a to jest kłopot”.

Zauważając, że rok 2024 jest rokiem wyborczym w kilku krajach – w tym w USA, Meksyku, RPA, Tajwanie i Indiach – Henry powiedział, że sama demokracja jest przedmiotem głosowania, a cyberprzestępcy chcą wykorzystać chaos polityczny, wykorzystując sztuczną inteligencję.

„Widzieliśmy, że zagraniczni przeciwnicy atakowali wybory w USA przez wiele lat, nie tylko w 2016 roku. [Chiny] zaatakowały nas już w 2008 roku” – powiedział Henry. „Przez lata widzieliśmy Rosję, Chiny i Iran zaangażowane w tego typu dezinformację i dezinformację; absolutnie wykorzystają to ponownie w 2024 roku”.

„Ludzie muszą zrozumieć, skąd pochodzą informacje” – powiedział Henry. „Ponieważ są tam ludzie, którzy mają nikczemne zamiary i stwarzają ogromne problemy”.

Szczególną troską w nadchodzących wyborach w USA w 2024 r. jest bezpieczeństwo maszyn do głosowania. Zapytany, czy sztuczna inteligencja może zostać wykorzystana do zhakowania maszyn do głosowania, Henry był optymistą, że zdecentralizowany charakter amerykańskiego systemu głosowania zapobiegnie temu.

„Myślę, że nasz system w Stanach Zjednoczonych jest bardzo zdecentralizowany” – powiedział Henry. „Istnieją pojedyncze obszary, które mogą być celem ataku, takie jak listy rejestracyjne wyborców itp., [ale] nie sądzę, aby problem z tabelami wyborców na szeroką skalę miał wpływ na wybory – nie sądzę, aby była to poważna kwestia.”

Henry podkreślił zdolność sztucznej inteligencji do zapewnienia cyberprzestępcom dostępu do broni technicznej.

„Sztuczna inteligencja zapewnia bardzo sprawne narzędzie w rękach ludzi, którzy mogą nie mieć wysokich umiejętności technicznych” – powiedział Henry. „Mogą pisać kod, tworzyć złośliwe oprogramowanie, wiadomości phishingowe itp.”.

W październiku RAND Corporation opublikowała raport sugerujący, że generatywna sztuczna inteligencja może zostać złamana, aby pomóc terrorystom w planowaniu ataków biologicznych.

„Ogólnie rzecz biorąc, jeśli złośliwy aktor jest wyraźny [w swoich zamiarach], otrzymasz odpowiedź o smaku „Przykro mi, nie mogę ci w tym pomóc”” – powiedział współautor i starszy inżynier RAND Corporation Christopher Mouton w wywiadzie dla TCN. „Więc generalnie musisz użyć jednej z tych technik jailbreakingu lub inżynierii podpowiedzi, aby dostać się o jeden poziom poniżej tych barier”.

W osobnym raporcie firma SlashNext zajmująca się cyberbezpieczeństwem poinformowała, że liczba ataków phishingowych w wiadomościach e-mail wzrosła o 1265% od początku 2023 roku.

Światowi decydenci spędzili większość 2023 roku na poszukiwaniu sposobów na uregulowanie i ograniczenie niewłaściwego wykorzystania generatywnej sztucznej inteligencji, w tym Sekretarz Generalny Organizacji Narodów Zjednoczonych, który zaalarmował o wykorzystaniu generowanych przez sztuczną inteligencję deepfake’ów w strefach konfliktu.

W sierpniu Federalna Komisja Wyborcza USA przekazała petycję w sprawie zakazu wykorzystywania sztucznej inteligencji w reklamach kampanii wyborczych przed wyborami w 2024 roku.

Giganci technologiczni Microsoft i Meta ogłosili nowe zasady mające na celu ograniczenie dezinformacji politycznej opartej na sztucznej inteligencji.

„Świat w 2024 roku może zobaczyć wiele autorytarnych państw narodowych próbujących ingerować w procesy wyborcze” – powiedział Microsoft. „I mogą łączyć tradycyjne techniki ze sztuczną inteligencją i innymi nowymi technologiami, aby zagrozić integralności systemów wyborczych”.

Nawet papież Franciszek, który był przedmiotem wirusowych deepfake’ów generowanych przez sztuczną inteligencję, przy różnych okazjach odnosił się do sztucznej inteligencji w kazaniach.

„Musimy być świadomi zachodzących obecnie szybkich przemian i zarządzać nimi w sposób, który chroni podstawowe prawa człowieka oraz szanuje instytucje i prawa promujące integralny rozwój człowieka” – powiedział papież Franciszek. „Sztuczna inteligencja powinna służyć naszemu najlepszemu ludzkiemu potencjałowi i naszym najwyższym aspiracjom, a nie konkurować z nimi.”

Related Posts

Leave a Comment