Les biais dans les algorithmes d’IA sont-ils une menace pour la sécurité du cloud ?

Les biais dans les algorithmes d’IA sont-ils une menace pour la sécurité du cloud ?

Is Bias in AI Algorithms a Threat to Cloud Security? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

L'intelligence artificielle (IA) aide les humains dans les opérations de sécurité informatique depuis les années 2010, en analysant rapidement des quantités massives de données pour détecter les signaux de comportement malveillant. Les environnements cloud d’entreprise produisant des téraoctets de données à analyser, la détection des menaces à l’échelle du cloud dépend de l’IA. Mais peut-on faire confiance à l'IA? Ou va biais caché conduire à des menaces manquées et à des violations de données ?

Biais dans les algorithmes d’IA de sécurité du cloud

Les biais peuvent créer des risques dans les systèmes d’IA utilisés pour sécurité cloud. Il existe des mesures que les humains peuvent prendre pour atténuer cette menace cachée, mais il est d’abord utile de comprendre quels types de préjugés existent et d’où ils viennent.

  • Biais des données de formation : Supposons que les données utilisées pour entraîner les algorithmes d’IA et d’apprentissage automatique (ML) ne soient pas diversifiées ou représentatives de l’ensemble du paysage des menaces. Dans ce cas, l’IA peut ignorer les menaces ou identifier un comportement inoffensif comme malveillant. Par exemple, un modèle formé sur des données orientées vers les menaces provenant d’une région géographique pourrait ne pas identifier les menaces provenant de différentes régions.
  • Biais algorithmique : Les algorithmes d’IA eux-mêmes peuvent introduire leur propre forme de biais. Par exemple, un système qui utilise la correspondance de modèles peut générer des faux positifs lorsqu'une activité bénigne correspond à un modèle ou ne parvient pas à détecter des variations subtiles dans les menaces connues. Un algorithme peut également être réglé par inadvertance pour favoriser les faux positifs, entraînant une fatigue des alertes, ou pour favoriser les faux négatifs, permettant ainsi aux menaces de passer.
  • Biais cognitif: Les gens sont influencés par leur expérience et leurs préférences personnelles lorsqu’ils traitent des informations et émettent des jugements. C'est ainsi que fonctionne notre esprit. Un biais cognitif consiste à privilégier les informations qui soutiennent nos croyances actuelles. Lorsque les gens créent, entraînent et affinent des modèles d’IA, ils peuvent transférer ce biais cognitif vers l’IA, ce qui amène le modèle à négliger les menaces nouvelles ou inconnues telles que les exploits du jour zéro.

Menaces pour la sécurité du cloud dues au biais de l'IA

Nous considérons les biais de l'IA comme une menace cachée pour la sécurité du cloud, car nous ne savons souvent pas que ces biais sont présents à moins que nous ne les recherchions spécifiquement – ​​ou jusqu'à ce qu'il soit trop tard et qu'une violation de données se produise. Voici quelques-unes des choses qui peuvent mal tourner si nous ne parvenons pas à lutter contre les préjugés :

  • Détection inexacte des menaces et menaces manquées : Lorsque les données de formation ne sont pas complètes, diversifiées et à jour, le système d’IA peut donner la priorité à certaines menaces tout en sous-détectant ou en manquant d’autres.
  • Fatigue d’alerte : La surproduction de faux positifs peut submerger l’équipe de sécurité, l’amenant potentiellement à négliger de véritables menaces qui se perdent dans le volume d’alertes.
  • Vulnérabilité aux nouvelles menaces : Les systèmes d’IA sont intrinsèquement biaisés car ils ne peuvent voir que ce pour quoi ils ont été formés. Les systèmes qui ne sont pas tenus à jour via une mise à jour continue et dotés de la capacité d'apprendre en permanence ne protégeront pas les environnements cloud contre les nouvelles menaces émergentes.
  • Érosion de la confiance : Des inexactitudes répétées dans la détection et la réponse aux menaces dues à un biais de l'IA peuvent miner la confiance des parties prenantes et des équipes du centre d'opérations de sécurité (SOC) dans les systèmes d'IA, affectant ainsi la posture de sécurité et la réputation du cloud à long terme.
  • Risque juridique et réglementaire : Selon la nature du biais, le système d’IA peut enfreindre les exigences légales ou réglementaires en matière de confidentialité, d’équité ou de discrimination, entraînant des amendes et une atteinte à la réputation.

Atténuer les préjugés et renforcer la sécurité du cloud

Même si les humains sont à l’origine des biais dans les outils de sécurité de l’IA, l’expertise humaine est essentielle pour créer une IA fiable pour sécuriser le cloud. Voici les mesures que les responsables de la sécurité, les équipes SOC et les data scientists peuvent prendre pour atténuer les préjugés, favoriser la confiance et bénéficier de la détection améliorée des menaces et de la réponse accélérée qu'offre l'IA.

  • Sensibiliser les équipes et le personnel de sécurité à la diversité : Les modèles d’IA apprennent des classifications et des décisions prises par les analystes lors de l’évaluation des menaces. Comprendre nos préjugés et la manière dont ils influencent nos décisions peut aider les analystes à éviter les classifications biaisées. Les responsables de la sécurité peuvent également s’assurer que les équipes SOC représentent une diversité d’expériences afin d’éviter les angles morts résultant de préjugés.
  • Abordez la qualité et l’intégrité des données de formation : Utilisez des pratiques robustes de collecte et de prétraitement des données pour garantir que les données de formation sont exemptes de biais, représentent des scénarios cloud réels et couvrent une gamme complète de cybermenaces et de comportements malveillants.
  • Tenez compte des particularités de l’infrastructure cloud : Les données et les algorithmes de formation doivent tenir compte des vulnérabilités spécifiques au cloud public, notamment les erreurs de configuration, les risques de multi-location, les autorisations, l'activité des API, l'activité du réseau et le comportement typique et anormal des humains et des non-humains.
  • Gardez les humains « au milieu » tout en tirant parti de l’IA pour lutter contre les préjugés : Dédiez une équipe humaine pour surveiller et évaluer le travail des analystes et des algorithmes d’IA afin de détecter les biais potentiels afin de garantir que les systèmes sont impartiaux et équitables. Dans le même temps, vous pouvez utiliser des modèles d’IA spécialisés pour identifier les biais dans les données et les algorithmes d’entraînement.
  • Investissez dans une surveillance et une mise à jour continues : Les cybermenaces et les acteurs de la menace évoluent rapidement. Les systèmes d’IA doivent apprendre en permanence et les modèles doivent être régulièrement mis à jour pour détecter les menaces nouvelles et émergentes.
  • Utilisez plusieurs couches d'IA : Vous pouvez minimiser l’impact des biais en répartissant le risque sur plusieurs systèmes d’IA.
  • Efforcez-vous d’explicabilité et de transparence : Plus vos algorithmes d’IA sont complexes, plus il est difficile de comprendre comment ils prennent des décisions ou font des prédictions. Adoptez des techniques d’IA explicables pour fournir une visibilité sur le raisonnement derrière les résultats de l’IA.
  • Restez au courant des techniques émergentes pour atténuer les biais de l’IA : À mesure que nous progressons dans le domaine de l’IA, nous assistons à une augmentation des techniques permettant de détecter, quantifier et traiter les préjugés. Les méthodes innovantes telles que l’élimination des biais contradictoires et l’équité contrefactuelle gagnent du terrain. Se tenir au courant de ces dernières techniques est primordial pour développer des systèmes d’IA équitables et efficaces pour la sécurité du cloud.
  • Renseignez-vous auprès de votre fournisseur de services de sécurité cloud gérés sur les préjugés : Construire, former et maintenir des systèmes d’IA pour la détection et la réponse aux menaces est difficile, coûteux et prend du temps. De nombreuses entreprises se tournent vers des prestataires de services pour augmenter leurs opérations SOC. Utilisez ces critères pour vous aider à évaluer dans quelle mesure un fournisseur de services lutte contre les préjugés dans l’IA.

La emporter

Compte tenu de l’ampleur et de la complexité des environnements cloud d’entreprise, l’utilisation de l’IA pour la détection et la réponse aux menaces est essentielle, qu’il s’agisse de services internes ou externes. Cependant, vous ne pourrez jamais remplacer l’intelligence, l’expertise et l’intuition humaines par l’IA. Pour éviter les biais de l'IA et protéger vos environnements cloud, équipez les professionnels qualifiés en cybersécurité d'outils d'IA puissants et évolutifs, régis par des politiques strictes et une surveillance humaine.

Tenez-vous au courant des dernières menaces de cybersécurité, des vulnérabilités récemment découvertes, des informations sur les violations de données et des tendances émergentes. Livré quotidiennement ou hebdomadairement directement dans votre boîte de réception.

Horodatage:

Plus de Lecture sombre