La cybercriminalité basée sur l'IA va exploser en 2024 : CrowdStrike Executive

La cybercriminalité basée sur l’IA va exploser en 2024 : CrowdStrike Executive – Décrypter

La cybercriminalité basée sur l'IA va exploser en 2024 : CrowdStrike Executive - Décryptez les données Intelligence de PlatoBlockchain. Recherche verticale. Aï.

La nouvelle année apporte de nouvelles menaces de cybersécurité alimentées par l'intelligence artificielle, a déclaré Shawn Henry, responsable de la sécurité de CrowdStrike. Matins CBS mardi.

"Je pense que c'est une préoccupation majeure pour tout le monde", a déclaré Henry.

"L'IA a vraiment mis cet outil extrêmement puissant entre les mains de la personne moyenne et l'a rendu incroyablement plus performant", a-t-il expliqué. « Les adversaires utilisent donc l’IA, cette nouvelle innovation, pour surmonter différentes capacités de cybersécurité et accéder aux réseaux d’entreprise. »

Henry a souligné l’utilisation de l’IA pour pénétrer les réseaux d’entreprise, ainsi que pour diffuser des informations erronées en ligne à l’aide de deepfakes vidéo, audio et textuels de plus en plus sophistiqués.

Henry a souligné la nécessité d’examiner la source de l’information et de ne jamais prendre pour argent comptant ce qui est publié en ligne.

"Vous devez vérifier d'où cela vient", a déclaré Henry. « Qui raconte l’histoire, quelle est sa motivation et pouvez-vous la vérifier à travers plusieurs sources ? »

"C'est incroyablement difficile parce que les gens, lorsqu'ils utilisent la vidéo, disposent de 15 ou 20 secondes, ils n'ont pas le temps ou ne font souvent pas l'effort d'aller chercher ces données, et c'est un problème."

Notant que 2024 est une année électorale pour plusieurs pays, dont les États-Unis, le Mexique, l’Afrique du Sud, Taiwan et l’Inde, Henry a déclaré que la démocratie elle-même était en jeu, les cybercriminels cherchant à profiter du chaos politique en tirant parti de l’IA.

« Nous avons vu des adversaires étrangers cibler les élections américaines pendant de nombreuses années, et pas seulement en 2016. [La Chine] nous a ciblés en 2008 », a déclaré Henry. « Nous avons vu la Russie, la Chine et l’Iran se livrer à ce type de désinformation et de désinformation au fil des années ; ils vont absolument l’utiliser à nouveau ici en 2024. »

« Les gens doivent comprendre d’où viennent les informations », a déclaré Henry. "Parce qu'il y a des gens qui ont des intentions néfastes et créent d'énormes problèmes."

La sécurité des machines à voter constitue une préoccupation particulière lors des prochaines élections américaines de 2024. Lorsqu’on lui a demandé si l’IA pouvait être utilisée pour pirater les machines à voter, Henry était optimiste quant au fait que la nature décentralisée du système électoral américain empêcherait que cela se produise.

"Je pense que notre système aux États-Unis est très décentralisé", a déclaré Henry. « Il y a des poches individuelles qui pourraient être ciblées, comme les listes d'inscription des électeurs, etc., [mais] je ne pense pas qu'un problème de tabulation des électeurs à grande échelle ait un impact sur une élection – je ne pense pas que ce soit un problème majeur. »

Henry a souligné la capacité de l’IA à donner accès à des armes techniques à des cybercriminels peu experts en technologie.

"L'IA fournit un outil très performant entre les mains de personnes qui n'ont peut-être pas de compétences techniques élevées", a déclaré Henry. «Ils peuvent écrire du code, créer des logiciels malveillants, des e-mails de phishing, etc.»

En octobre, le RAND Corporation a publié un rapport suggérant que l'IA générative pourrait être jailbreakée pour aider les terroristes à planifier des attaques biologiques.

"En général, si un acteur malveillant est explicite [dans son intention], vous obtiendrez une réponse du genre 'Je suis désolé, je ne peux pas vous aider avec ça'", co-auteur et ingénieur principal de RAND Corporation, Christopher. Mouton a dit Décrypter dans une interview. "Vous devez donc généralement utiliser l'une de ces techniques de jailbreak ou une ingénierie rapide pour passer un niveau en dessous de ces garde-fous."

Dans un rapport distinct, la société de cybersécurité SlashSuivant a rapporté que les attaques de phishing par courrier électronique ont augmenté de 1265 2023 % depuis le début de XNUMX.

Les décideurs politiques mondiaux ont passé la majeure partie de l’année 2023 à chercher des moyens de réglementer et de réprimer l’utilisation abusive des IA générative, dont le secrétaire général des Nations Unies, qui a tiré la sonnette d'alarme sur l'utilisation de deepfakes générés par l'IA dans zones de conflit.

En août, la Commission électorale fédérale américaine a avancé une pétition d'interdire l'utilisation de l'intelligence artificielle dans les publicités de campagne menant à la saison électorale de 2024.

Les géants de la technologie Microsoft et Meta ont annoncé de nouveaux politiques visant à lutter contre la désinformation politique alimentée par l’IA.

« Le monde de 2024 pourrait voir plusieurs États-nations autoritaires chercher à s’immiscer dans les processus électoraux », a déclaré Microsoft. « Et ils pourraient combiner des techniques traditionnelles avec l’IA et d’autres nouvelles technologies pour menacer l’intégrité des systèmes électoraux. »

Pourtant, la Pape François, qui a fait l’objet de deepfakes viraux générés par l’IA, a, à plusieurs reprises, abordé l’intelligence artificielle dans des sermons.

« Nous devons être conscients des transformations rapides qui s’opèrent actuellement et les gérer de manière à sauvegarder les droits humains fondamentaux et à respecter les institutions et les lois qui promeuvent le développement humain intégral », a déclaré le pape François. « L’intelligence artificielle doit servir notre meilleur potentiel humain et nos aspirations les plus élevées, et non les concurrencer. »

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Horodatage:

Plus de Décrypter