Är bias i AI-algoritmer ett hot mot molnsäkerheten?

Är bias i AI-algoritmer ett hot mot molnsäkerheten?

Är bias i AI-algoritmer ett hot mot molnsäkerheten? PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Artificiell intelligens (AI) har hjälpt människor i IT-säkerhetsverksamhet sedan 2010-talet, och analyserat enorma mängder data snabbt för att upptäcka signaler om skadligt beteende. Med företagsmolnmiljöer som producerar terabyte av data som ska analyseras beror hotdetektering i molnskala på AI. Men kan den AI lita på? Eller kommer dold partiskhet leda till missade hot och dataintrång?

Bias i Cloud Security AI-algoritmer

Bias kan skapa risker i AI-system som används för moln säkerhet. Det finns steg som människor kan vidta för att mildra detta dolda hot, men först är det bra att förstå vilka typer av fördomar som finns och var de kommer ifrån.

  • Träningsdatabias: Anta att data som används för att träna AI och maskininlärningsalgoritmer (ML) inte är olika eller representativa för hela hotlandskapet. I så fall kan AI:n förbise hot eller identifiera godartat beteende som skadligt. Till exempel kan en modell som tränas på data som är snedställd mot hot från en geografisk region inte identifiera hot som kommer från olika regioner.
  • Algoritmisk bias: AI-algoritmer kan själva introducera sin form av bias. Till exempel kan ett system som använder mönstermatchning ge falska positiva resultat när en godartad aktivitet matchar ett mönster eller misslyckas med att upptäcka subtila variationer i kända hot. En algoritm kan också ställas in oavsiktligt för att gynna falska positiva, vilket leder till larmtrötthet, eller för att gynna falska negativa, vilket gör att hot kan komma igenom.
  • Kognitiv bias: Människor påverkas av personlig erfarenhet och preferenser när de bearbetar information och gör bedömningar. Det är så våra sinnen fungerar. En kognitiv snedvridning är att gynna information som stöder vår nuvarande övertygelse. När människor skapar, tränar och finjusterar AI-modeller kan de överföra denna kognitiva fördom till AI, vilket leder till att modellen förbiser nya eller okända hot som nolldagsexploateringar.

Hot mot molnsäkerhet från AI Bias

Vi hänvisar till AI-bias som ett dolt hot mot molnsäkerhet eftersom vi ofta inte vet att bias är närvarande om vi inte specifikt letar efter det – eller tills det är för sent och ett dataintrång har inträffat. Här är några av de saker som kan gå fel om vi misslyckas med att ta itu med partiskhet:

  • Felaktig upptäckt av hot och missade hot: När träningsdata inte är heltäckande, mångsidig och aktuell kan AI-systemet överprioritera vissa hot samtidigt som det underupptäcker eller saknar andra.
  • Varningströtthet: Överproduktion av falska positiva kan överväldiga säkerhetsteamet, vilket potentiellt kan få dem att förbise äkta hot som går vilse i mängden varningar.
  • Sårbarhet för nya hot: AI-system är till sin natur partiska eftersom de bara kan se vad de har tränats att se. System som inte hålls aktuella via kontinuerlig uppdatering och utrustade med förmågan att lära sig kontinuerligt kommer inte att skydda molnmiljöer från nya hot.
  • Urholkning av förtroende: Upprepade felaktigheter i hotupptäckt och respons på grund av AI-bias kan undergräva intressenternas och SOC-teamets förtroende för AI-systemen, vilket påverkar molnets säkerhetsställning och rykte på lång sikt.
  • Juridisk och regulatorisk risk: Beroende på arten av partiskhet kan AI-systemet bryta mot lagar eller regulatoriska krav kring integritet, rättvisa eller diskriminering, vilket kan leda till böter och skada på ryktet.

Minska fördomar och stärka molnsäkerheten

Även om människor är källan till partiskhet i AI-säkerhetsverktyg, är mänsklig expertis avgörande för att bygga AI som kan lita på för att säkra molnet. Här är steg som säkerhetsledare, SOC-team och datavetare kan vidta för att mildra partiskhet, främja förtroende och förverkliga den förbättrade hotdetektering och accelererade svar som AI erbjuder.

  • Utbilda säkerhetsteam och personal om mångfald: AI-modeller lär sig av de klassificeringar och beslut som analytiker fattar när de bedömer hot. Att förstå våra fördomar och hur de påverkar våra beslut kan hjälpa analytiker att undvika partiska klassificeringar. Säkerhetsledare kan också se till att SOC-team representerar en mångfald av erfarenheter för att förhindra blinda fläckar som härrör från partiskhet.
  • Ta itu med utbildningsdatas kvalitet och integritet: Använd robusta metoder för datainsamling och förbearbetning för att säkerställa att träningsdata är fri från partiskhet, representerar verkliga molnscenarier och täcker ett omfattande utbud av cyberhot och skadligt beteende.
  • Redogör för särdragen med molninfrastruktur: Träningsdata och algoritmer måste tillgodose offentliga molnspecifika sårbarheter, inklusive felkonfigurationer, risker för flera hyresrätter, behörigheter, API-aktivitet, nätverksaktivitet och typiskt och onormalt beteende hos människor och icke-människor.
  • Håll människor "i mitten" samtidigt som du utnyttjar AI för att bekämpa partiskhet: Dedikera ett mänskligt team för att övervaka och utvärdera analytikers och AI-algoritmers arbete för potentiell bias för att se till att systemen är opartiska och rättvisa. Samtidigt kan du använda specialiserade AI-modeller för att identifiera bias i träningsdata och algoritmer.
  • Investera i kontinuerlig övervakning och uppdatering: Cyberhot och hotaktörer utvecklas snabbt. AI-system måste lära sig kontinuerligt, och modeller bör uppdateras regelbundet för att upptäcka nya och framväxande hot.
  • Använd flera lager av AI: Du kan minimera effekten av partiskhet genom att sprida risken över flera AI-system.
  • Sträva efter förklaring och transparens: Ju mer komplexa dina AI-algoritmer är, desto svårare är det att förstå hur de fattar beslut eller förutsäger. Använd förklarande AI-tekniker för att ge insyn i resonemanget bakom AI-resultat.
  • Håll dig uppdaterad om nya tekniker för att mildra AI-bias: När vi gör framsteg inom AI-domänen ser vi en ökning av tekniker för att upptäcka, kvantifiera och ta itu med partiskhet. Innovativa metoder som kontradiktorisk nedbrytning och kontrafaktisk rättvisa tar fart. Att hålla sig à jour med dessa senaste tekniker är avgörande för att utveckla rättvisa och effektiva AI-system för molnsäkerhet.
  • Fråga din leverantör av hanterade molnsäkerhetstjänster om partiskhet: Det är svårt, dyrt och tidskrävande att bygga, träna och underhålla AI-system för att upptäcka och bemöta hot. Många företag vänder sig till tjänsteleverantörer för att utöka sin SOC-verksamhet. Använd dessa kriterier för att utvärdera hur väl en tjänsteleverantör hanterar partiskhet i AI.

Den Takeaway

Med tanke på omfattningen och komplexiteten i företagsmolnmiljöer är det viktigt att använda AI för att upptäcka och bemöta hot, oavsett om det är internt eller externt. Du kan dock aldrig ersätta mänsklig intelligens, expertis och intuition med AI. För att undvika AI-bias och skydda dina molnmiljöer, utrusta skickliga cybersäkerhetsproffs med kraftfulla, skalbara AI-verktyg som styrs av starka policyer och mänsklig tillsyn.

Håll dig uppdaterad om de senaste hoten mot cybersäkerhet, nyupptäckta sårbarheter, dataintrång och nya trender. Levereras dagligen eller veckovis direkt till din inkorg.

Tidsstämpel:

Mer från Mörk läsning