Er bias i AI-algoritmer en trussel mod cloud-sikkerhed?

Er bias i AI-algoritmer en trussel mod cloud-sikkerhed?

Is Bias in AI Algorithms a Threat to Cloud Security? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Kunstig intelligens (AI) har hjulpet mennesker med it-sikkerhedsoperationer siden 2010'erne ved at analysere enorme mængder data hurtigt for at opdage signalerne om ondsindet adfærd. Med virksomhedens cloud-miljøer, der producerer terabyte af data, der skal analyseres, afhænger trusselsdetektion i skyskalaen af ​​AI. Men kan man stole på den AI? Eller vil skjult bias føre til mistede trusler og databrud?

Bias i Cloud Security AI-algoritmer

Bias kan skabe risici i AI-systemer, der bruges til cloud sikkerhed. Der er trin, som mennesker kan tage for at afbøde denne skjulte trussel, men først er det nyttigt at forstå, hvilke typer af bias der findes, og hvor de kommer fra.

  • Træningsdatabias: Antag, at de data, der bruges til at træne AI og machine learning (ML) algoritmer, ikke er forskelligartede eller repræsentative for hele trusselslandskabet. I så fald kan AI'en overse trusler eller identificere godartet adfærd som ondsindet. For eksempel kan en model, der er trænet på data, der er skævt mod trusler fra én geografisk region, muligvis ikke identificere trusler, der stammer fra forskellige regioner.
  • Algoritmisk bias: AI-algoritmer kan selv introducere deres form for bias. For eksempel kan et system, der bruger mønstermatching, give falske positiver, når en godartet aktivitet matcher et mønster eller undlader at opdage subtile variationer i kendte trusler. En algoritme kan også tunes utilsigtet til at favorisere falske positiver, hvilket fører til alarmtræthed eller til at favorisere falske negativer, hvilket tillader trusler at komme igennem.
  • Kognitiv bias: Folk bliver påvirket af personlige erfaringer og præferencer, når de behandler oplysninger og træffer domme. Det er sådan vores sind fungerer. En kognitiv bias er at favorisere information, der understøtter vores nuværende overbevisning. Når folk opretter, træner og finjusterer AI-modeller, kan de overføre denne kognitive skævhed til AI, hvilket får modellen til at overse nye eller ukendte trusler såsom zero-day exploits.

Trusler mod Cloud Security fra AI Bias

Vi omtaler AI-bias som en skjult trussel mod cloud-sikkerhed, fordi vi ofte ikke ved, at bias er til stede, medmindre vi specifikt leder efter det - eller indtil det er for sent, og et databrud er sket. Her er nogle af de ting, der kan gå galt, hvis vi undlader at adressere bias:

  • Unøjagtig trusselsdetektion og mistede trusler: Når træningsdata ikke er omfattende, forskelligartede og aktuelle, kan AI-systemet overprioritere nogle trusler, mens det underopdager eller savner andre.
  • Alarmtræthed: Overproduktion af falske positiver kan overvælde sikkerhedsteamet og potentielt få dem til at overse ægte trusler, der går tabt i mængden af ​​advarsler.
  • Sårbarhed over for nye trusler: AI-systemer er i sagens natur forudindtaget, fordi de kun kan se, hvad de er blevet trænet til at se. Systemer, der ikke holdes opdaterede via løbende opdatering og udstyret med evnen til at lære kontinuerligt, vil ikke beskytte skymiljøer mod nyligt opståede trusler.
  • Erosion af tillid: Gentagne unøjagtigheder i trusselsdetektion og -respons på grund af AI-bias kan underminere interessenternes og SOC-teamets tillid til AI-systemerne, hvilket påvirker skysikkerhedspositionen og omdømmet på lang sigt.
  • Juridisk og regulatorisk risiko: Afhængigt af arten af ​​skævheden kan AI-systemet overtræde juridiske eller regulatoriske krav vedrørende privatliv, retfærdighed eller diskrimination, hvilket resulterer i bøder og skade på omdømme.

Afbødning af skævheder og styrkelse af cloud-sikkerhed

Mens mennesker er kilden til bias i AI-sikkerhedsværktøjer, er menneskelig ekspertise afgørende for at opbygge AI, der kan stole på for at sikre skyen. Her er trin, som sikkerhedsledere, SOC-teams og dataforskere kan tage for at afbøde bias, fremme tillid og realisere den forbedrede trusselsdetektion og accelererede respons, som AI tilbyder.

  • Uddan sikkerhedsteams og personale om mangfoldighed: AI-modeller lærer af de klassifikationer og beslutninger, analytikere træffer i vurderingen af ​​trusler. At forstå vores skævheder, og hvordan de påvirker vores beslutninger, kan hjælpe analytikere med at undgå skæve klassifikationer. Sikkerhedsledere kan også sikre, at SOC-teams repræsenterer en mangfoldighed af oplevelser for at forhindre blinde pletter, der er et resultat af bias.
  • Håndter kvaliteten og integriteten af ​​træningsdata: Anvend robust dataindsamling og forbehandlingspraksis for at sikre, at træningsdata er fri for bias, repræsenterer virkelige cloud-scenarier og dækker et omfattende udvalg af cybertrusler og ondsindet adfærd.
  • Redegør for de særlige kendetegn ved cloud-infrastruktur: Træningsdata og algoritmer skal rumme offentlige cloud-specifikke sårbarheder, herunder fejlkonfigurationer, risici for flere lejemål, tilladelser, API-aktivitet, netværksaktivitet og typisk og unormal adfærd hos mennesker og ikke-mennesker.
  • Hold mennesker "i midten", mens du udnytter AI til at bekæmpe bias: Dediker et menneskeligt team til at overvåge og evaluere arbejdet fra analytikere og AI-algoritmer for potentiel bias for at sikre, at systemerne er upartiske og retfærdige. Samtidig kan du anvende specialiserede AI-modeller til at identificere bias i træningsdata og algoritmer.
  • Invester i løbende overvågning og opdatering: Cybertrusler og trusselsaktører udvikler sig hurtigt. AI-systemer skal lære kontinuerligt, og modeller bør opdateres regelmæssigt for at opdage nye og nye trusler.
  • Anvend flere lag af AI: Du kan minimere virkningen af ​​bias ved at sprede risikoen på tværs af flere AI-systemer.
  • Stræb efter forklaring og gennemsigtighed: Jo mere komplekse dine AI-algoritmer er, jo sværere er det at forstå, hvordan de træffer beslutninger eller forudsigelser. Brug forklarelige AI-teknikker for at give synlighed i ræsonnementet bag AI-resultater.
  • Hold dig på forkant med nye teknikker til at afbøde AI-bias: Efterhånden som vi gør fremskridt inden for AI-domænet, er vi vidne til en stigning i teknikker til at spotte, kvantificere og adressere bias. Innovative metoder som modstridende de-biasing og kontrafaktisk retfærdighed tager fart. At holde sig ajour med disse nyeste teknikker er altafgørende for at udvikle fair og effektive AI-systemer til cloud-sikkerhed.
  • Spørg din udbyder af administrerede cloud-sikkerhedstjenester om bias: Det er svært, dyrt og tidskrævende at bygge, træne og vedligeholde AI-systemer til trusselsdetektion og -respons. Mange virksomheder henvender sig til tjenesteudbydere for at udvide deres SOC-drift. Brug disse kriterier til at hjælpe med at evaluere, hvor godt en tjenesteudbyder adresserer bias i AI.

Den Takeaway

I betragtning af omfanget og kompleksiteten af ​​enterprise cloud-miljøer er brugen af ​​AI til trusselsdetektion og -respons afgørende, uanset om det er interne eller eksterne tjenester. Du kan dog aldrig erstatte menneskelig intelligens, ekspertise og intuition med AI. For at undgå AI-bias og beskytte dine cloudmiljøer skal du udstyre dygtige cybersikkerhedsprofessionelle med kraftfulde, skalerbare AI-værktøjer styret af stærke politikker og menneskeligt tilsyn.

Hold dig opdateret med de seneste cybersikkerhedstrusler, nyopdagede sårbarheder, oplysninger om databrud og nye tendenser. Leveres dagligt eller ugentligt lige til din e-mail-indbakke.

Tidsstempel:

Mere fra Mørk læsning