Home » La cybercriminalité alimentée par l’IA explosera en 2024 : CrowdStrike Executive

La cybercriminalité alimentée par l’IA explosera en 2024 : CrowdStrike Executive

by v

La nouvelle année apporte de nouvelles menaces de cybersécurité alimentées par l’intelligence artificielle, a déclaré Shawn Henry, responsable de la sécurité chez CrowdStrike, à CBS Mornings mardi.

« Je pense qu’il s’agit d’une préoccupation majeure pour tout le monde », a déclaré M. Henry.

« L’IA a vraiment mis cet outil extrêmement puissant entre les mains de l’individu moyen et l’a rendu incroyablement plus capable », a-t-il expliqué. « Les adversaires utilisent donc l’IA, cette nouvelle innovation, pour surmonter les différentes capacités de cybersécurité et accéder aux réseaux des entreprises.

M. Henry a souligné l’utilisation de l’IA pour pénétrer dans les réseaux d’entreprise, ainsi que pour diffuser des informations erronées en ligne à l’aide d’imitations vidéo, audio et textuelles de plus en plus sophistiquées.

Henry a insisté sur la nécessité de vérifier la source de l’information et de ne jamais prendre pour argent comptant ce qui est publié en ligne.

« Il faut vérifier l’origine de l’information », a déclaré M. Henry. « Qui raconte l’histoire, quelle est sa motivation, et pouvez-vous la vérifier auprès de plusieurs sources ?

« C’est incroyablement difficile parce que les gens – lorsqu’ils utilisent des vidéos – ont 15 ou 20 secondes, ils n’ont pas le temps ou souvent ne font pas l’effort d’aller chercher ces données, et c’est un problème.

Notant que 2024 est une année électorale pour plusieurs pays, dont les États-Unis, le Mexique, l’Afrique du Sud, Taïwan et l’Inde, M. Henry a déclaré que la démocratie elle-même était en jeu, et que les cybercriminels cherchaient à tirer parti du chaos politique en utilisant l’IA.

« Nous avons vu des adversaires étrangers cibler les élections américaines depuis de nombreuses années, et pas seulement en 2016. [La Chine nous a ciblés dès 2008 », a déclaré M. Henry. « Nous avons vu la Russie, la Chine et l’Iran se livrer à ce type de désinformation au fil des ans ; ils vont absolument l’utiliser à nouveau ici en 2024.

« Les gens doivent comprendre d’où vient l’information », a déclaré M. Henry. « Car il y a des gens qui ont des intentions malveillantes et qui créent d’énormes problèmes.

La sécurité des machines à voter est une préoccupation particulière dans le cadre des élections américaines de 2024. À la question de savoir si l’IA pourrait être utilisée pour pirater les machines à voter, M. Henry s’est montré optimiste, estimant que la nature décentralisée du système de vote américain empêcherait une telle chose de se produire.

« Je pense que notre système aux États-Unis est très décentralisé », a déclaré M. Henry. « Il y a des poches individuelles qui pourraient être ciblées, comme les listes électorales, etc., [mais] je ne pense pas qu’un problème de tabulation des votes à grande échelle puisse avoir un impact sur une élection – je ne pense pas que ce soit un problème majeur. « 

Henry a souligné la capacité de l’IA à permettre à des cybercriminels peu techniques d’accéder à des armes techniques.

« L’IA met un outil très performant entre les mains de personnes qui n’ont pas forcément de grandes compétences techniques », a déclaré M. Henry. « Ils peuvent écrire du code, créer des logiciels malveillants, des courriels d’hameçonnage, etc.

En octobre, la RAND Corporation a publié un rapport suggérant que l’IA générative pourrait être piratée pour aider les terroristes à planifier des attaques biologiques.

Généralement, si un acteur malveillant est explicite [dans ses intentions], vous obtiendrez une réponse du type « Je suis désolé, je ne peux pas vous aider » », a déclaré Christopher Mouton, ingénieur principal de la RAND Corporation et co-auteur du rapport, lors d’une interview accordée à TCN. « Il faut donc généralement recourir à l’une de ces techniques de piratage ou à l’ingénierie d’incitation pour passer un niveau en dessous de ces garde-fous.

Dans un rapport distinct, la société de cybersécurité SlashNext a indiqué que les attaques par hameçonnage par courriel avaient augmenté de 1265 % depuis le début de l’année 2023.

Les décideurs politiques mondiaux ont passé la majeure partie de l’année 2023 à chercher des moyens de réglementer et de réprimer l’utilisation abusive de l’IA générative, y compris le secrétaire général des Nations unies, qui a tiré la sonnette d’alarme sur l’utilisation de deepfakes générés par l’IA dans les zones de conflit.

En août, la Commission électorale fédérale américaine a fait avancer une pétition visant à interdire l’utilisation de l’intelligence artificielle dans les publicités de campagne jusqu’à la saison électorale de 2024.

Les géants de la technologie Microsoft et Meta ont annoncé de nouvelles politiques visant à freiner la désinformation politique alimentée par l’IA.

« Le monde de 2024 pourrait voir de multiples États-nations autoritaires chercher à interférer dans les processus électoraux », a déclaré Microsoft. « Ils pourraient combiner des techniques traditionnelles avec l’IA et d’autres nouvelles technologies pour menacer l’intégrité des systèmes électoraux.

Même le pape François, qui a fait l’objet de deepfakes viraux générés par l’IA, a, à différentes occasions, abordé l’intelligence artificielle dans ses sermons.

« Nous devons être conscients des transformations rapides qui se produisent actuellement et les gérer de manière à sauvegarder les droits humains fondamentaux et à respecter les institutions et les lois qui favorisent le développement humain intégral », a déclaré le pape François. « L’intelligence artificielle doit être au service de nos meilleures potentialités humaines et de nos aspirations les plus élevées, et non pas les concurrencer. « 

Related Posts

Leave a Comment