Un âge d'or de l'IA… ou des menaces de sécurité ?

Un âge d'or de l'IA… ou des menaces de sécurité ?

Un âge d’or de l’IA… ou des menaces pour la sécurité ? Intelligence des données PlatoBlockchain. Recherche verticale. Aï.

Sommes-nous à l'âge d'or de l'intelligence artificielle ? Il est difficile de faire des prédictions - et probablement malavisé. Qui veut prédire l'avenir d'une telle nouvelle technologie ?

Nous pouvons cependant affirmer certaines choses avec certitude. On parle beaucoup de l'application de l'IA aux œuvres créatives, du doublage aux premières ébauches de scénarios. Mais l'IA est susceptible d'être plus utile lorsqu'il s'agit de corvée. C'est une bonne nouvelle pour les développeurs, si la promesse correspond aux premières expériences - les premières ébauches de code peuvent être facilement créées et prêtes à être modifiées et itérées par les développeurs.

Cependant, il est important de se rappeler que tous les codeurs ne travaillent pas pour une entreprise légitime. Tout comme les auteurs de menaces de cybersécurité ont imité leurs cibles en adoptant une approche plus commerciale, ils adoptent également de nouvelles technologies et techniques. Nous pouvons nous attendre à ce que l’IA contribue au développement de logiciels malveillants et d’autres menaces dans les années à venir, que nous entrions ou non dans un âge d’or de l’IA.

Rédaction de code et escroqueries

Une tendance que nous avons constatée ces dernières années est une augmentation des offres « en tant que service ». Les premiers pirates étaient des bricoleurs et des fauteurs de troubles, trompant les systèmes téléphoniques ou causant le chaos principalement dans le cadre d'un exercice amusant. Cela a fondamentalement changé. Les auteurs de menaces sont des professionnels et vendent souvent leurs produits pour que d'autres les utilisent.

L'IA s'intégrera très bien dans cette façon de travailler. Capable de créer du code pour résoudre des problèmes spécifiques, l'IA peut modifier le code pour cibler les vulnérabilités ou prendre le code existant et le modifier, de sorte qu'il n'est pas si facilement détecté par les mesures de sécurité à la recherche de modèles spécifiques.

Mais les possibilités d'utilisation abusive de l'IA ne s'arrêtent pas là. De nombreux e-mails de phishing sont détectés par des outils de filtrage efficaces et finissent dans des dossiers indésirables. Ceux qui arrivent dans la boîte de réception sont souvent des escroqueries très évidentes, si mal écrites qu'elles sont à la limite de l'incompréhension. Mais l'IA pourrait briser ce modèle, en créant des milliers d'e-mails plausibles qui peuvent échapper à la détection et être suffisamment bien écrits pour tromper à la fois les filtres et les utilisateurs finaux.

Le spear-phishing, la forme la plus ciblée de cette attaque, pourrait également être révolutionné par cette technologie. Bien sûr, il est facile d'ignorer un e-mail de votre patron vous demandant de virer de l'argent ou d'acheter de toute urgence des cartes-cadeaux - la formation en cybersécurité aide les employés à éviter ce genre d'escroquerie. Mais qu'en est-il d'un faux appel téléphonique ou d'un chat vidéo ? L'IA a le potentiel de prendre des apparitions diffusées et des podcasts et de les transformer en un simulacre convaincant, quelque chose de beaucoup plus difficile à ignorer.

Lutter contre les cyberattaques de l'IA

Il existe deux façons principales de lutter contre les avantages que l'IA conférera à l'ennemi - une meilleure IA et une meilleure formation — Et les deux seront nécessaires.

L'avènement de cette nouvelle génération d'IA a lancé une nouvelle course aux armements. Comme les cybercriminels l'utilisent pour faire évoluer leurs attaques, les équipes de sécurité devront l'utiliser pour faire évoluer leurs défenses.

Sans IA, les défenses reposent sur des personnes surchargées de travail et sur la surveillance de certains modèles préprogrammés pour prévenir les attaques. Les outils défensifs d'IA seront capables de prédire les vecteurs d'attaque et d'identifier les zones sensibles du réseau et des systèmes. Ils seront également en mesure d'analyser le code malveillant, ce qui permettra de mieux comprendre comment fonctionnent les nouvelles attaques et comment elles peuvent être évitées.

L'IA pourrait également fonctionner, à la rigueur, comme un arrêt d'urgence - désactivant le réseau lors de la détection d'une brèche et verrouillant l'ensemble du système. Bien que cela ne soit pas idéal du point de vue de la continuité des activités, cela pourrait être beaucoup moins dommageable qu'une violation de données.

Mais combattre l'IA avec l'IA n'est pas la seule réponse. Nous avons aussi besoin d'intelligence humaine. Aussi intelligente et ciblée soit-elle, la meilleure défense contre une attaque de phishing est un employé ou un client qui sait ce qu'il faut rechercher et qui est suffisamment méfiant pour ne pas mordre à l'hameçon. La mise en œuvre de politiques de sécurité solides et de bonnes pratiques en matière de cyberhygiène restera essentielle pour se défendre contre les attaques.

Cela signifie que la formation devra être mise à jour pour inclure les signes d'une attaque d'IA… quels qu'ils soient. La formation devra évoluer avec l'IA - un seul cours de formation toutes les quelques années ne suffira plus lorsque cette formation sera rapidement obsolète.

Alors que les signes possibles d'une cyberattaque basée sur l'IA évoluent rapidement, en général, les attaques sont :

  • Rapide et évolutif, exploitant de multiples vulnérabilités dans un court laps de temps.
  • Adaptatif et évasif, en changeant de tactiques et de techniques pour éviter la détection et la réponse.
  • Ciblé et personnalisé, en utilisant l'IA pour créer des e-mails de phishing convaincants ou des campagnes d'ingénierie sociale.
  • Trompeur et manipulateur, en utilisant l'IA pour créer du contenu faux ou modifié tel que des deepfakes, le clonage de voix ou la génération de texte.
  • Furtif et persistant, se cachant longtemps dans l'infrastructure réseau sans se faire remarquer.

Ces signes ne sont pas exhaustifs et certaines attaques pilotées par l'IA peuvent ne pas tous les présenter. Cependant, ils indiquent le niveau de menace que l'IA représente pour la cybersécurité.

Pour lutter efficacement contre les cyberattaques basées sur l'IA, les entreprises doivent penser au-delà des acteurs malveillants individuels et se préparer à des attaques coordonnées par des acteurs parrainés par l'État ou des organisations criminelles qui peuvent utiliser l'IA pour lancer des campagnes sophistiquées en utilisant une approche basée sur les risques. Ils devraient également avoir un stratégie proactive qui comprend des audits de sécurité réguliers, des sauvegardes, un chiffrement et des plans de réponse aux incidents. Ceci est plus facilement accompli en obtenant une certification de sécurité bien connue telle que PCI-DSS.

Enfin, il est impératif que les organisations améliorent la cybersécurité de leurs propres systèmes d'IA en garantissant leur intégrité, leur confidentialité et leur disponibilité, et en atténuant les risques d'attaques contradictoires, d'empoisonnement des données et de vol de modèles.

Ces stratégies aideront à protéger les entreprises, mais elles ne devraient pas être autonomes — la sécurité devrait être collaborative. En collaborant avec d'autres organisations, chercheurs et autorités pour partager des informations, les meilleures pratiques et les échecs qui peuvent être appris, les entreprises seront mieux préparées à la nouvelle vague de menaces de sécurité de l'IA.

L'IA est à la fois une nouvelle menace et la continuation d'anciennes menaces. Les entreprises devront faire évoluer leur façon de faire face aux cybermenaces à mesure que ces menaces deviennent plus sophistiquées et plus nombreuses, mais de nombreux fondamentaux restent les mêmes. Obtenir ces droits reste essentiel. Les équipes de sécurité n'ont pas besoin de s'éloigner des vieilles idées, mais de s'appuyer sur elles pour assurer la sécurité de leur entreprise.

Horodatage:

Plus de Lecture sombre