Je pristranskost v algoritmih AI grožnja varnosti v oblaku?

Je pristranskost v algoritmih AI grožnja varnosti v oblaku?

Is Bias in AI Algorithms a Threat to Cloud Security? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Umetna inteligenca (AI) že od leta 2010 pomaga ljudem pri varnostnih operacijah IT in hitro analizira ogromne količine podatkov, da zazna signale zlonamernega vedenja. Z oblačnimi okolji podjetij, ki proizvajajo terabajte podatkov za analizo, je zaznavanje groženj v oblaku odvisno od umetne inteligence. Ampak ali je temu AI mogoče zaupati? Ali bo skrita pristranskost povzroči zgrešene grožnje in kršitve podatkov?

Pristranskost algoritmov umetne inteligence za varnost v oblaku

Pristranskost lahko povzroči tveganja v sistemih AI, ki se uporabljajo za varnost v oblaku. Obstajajo koraki, ki jih lahko ljudje sprejmejo, da ublažijo to skrito grožnjo, vendar je najprej koristno razumeti, kakšne vrste pristranskosti obstajajo in od kod prihajajo.

  • Pristranskost podatkov o usposabljanju: Recimo, da podatki, uporabljeni za usposabljanje algoritmov umetne inteligence in strojnega učenja (ML), niso raznoliki ali reprezentativni za celotno okolje groženj. V tem primeru lahko AI spregleda grožnje ali benigno vedenje prepozna kot zlonamerno. Na primer, model, usposobljen na podlagi podatkov, usmerjenih proti grožnjam iz ene geografske regije, morda ne bo prepoznal groženj, ki izvirajo iz različnih regij.
  • Algoritemska pristranskost: Algoritmi AI sami lahko uvedejo svojo obliko pristranskosti. Na primer, sistem, ki uporablja ujemanje vzorcev, lahko sproži lažne pozitivne rezultate, ko se benigna dejavnost ujema z vzorcem ali ne zazna subtilnih različic znanih groženj. Algoritem je mogoče tudi nehote nastaviti tako, da daje prednost lažnim pozitivnim rezultatom, kar vodi do utrujenosti opozorila, ali da daje prednost lažnim negativnim rezultatom, kar omogoča prebijanje groženj.
  • Kognitivna pristranskost: Na ljudi pri obdelavi informacij in presojanju vplivajo osebne izkušnje in preference. Tako deluje naš um. Ena kognitivna pristranskost je dajanje prednosti informacijam, ki podpirajo naša trenutna prepričanja. Ko ljudje ustvarjajo, usposabljajo in natančno prilagajajo modele umetne inteligence, lahko to kognitivno pristranskost prenesejo na umetno inteligenco, zaradi česar model spregleda nove ali neznane grožnje, kot so izkoriščanja ničelnega dne.

Grožnje varnosti v oblaku zaradi AI Bias

Pristranskost umetne inteligence imenujemo skrita grožnja varnosti v oblaku, ker pogosto ne vemo, da je pristranskost prisotna, razen če je posebej ne iščemo – ali dokler ni prepozno in se zgodi kršitev podatkov. Tukaj je nekaj stvari, ki gredo lahko narobe, če ne obravnavamo pristranskosti:

  • Netočno zaznavanje groženj in zgrešene grožnje: Kadar podatki o usposabljanju niso izčrpni, raznoliki in aktualni, lahko sistem umetne inteligence nekaterim grožnjam da preveliko prednost, druge pa premalo zazna ali jih spregleda.
  • Opozorilna utrujenost: Prekomerna proizvodnja lažno pozitivnih rezultatov lahko preobremeni varnostno ekipo, kar lahko povzroči, da spregledajo resnične grožnje, ki se izgubijo v količini opozoril.
  • Ranljivost za nove grožnje: Sistemi umetne inteligence so sami po sebi pristranski, ker lahko vidijo samo tisto, za kar so bili usposobljeni. Sistemi, ki niso posodobljeni z nenehnim posodabljanjem in so opremljeni z zmožnostjo stalnega učenja, ne bodo zaščitili oblačnih okolij pred na novo nastajajočimi grožnjami.
  • Erozija zaupanja: Ponavljajoče se netočnosti pri odkrivanju in odzivanju na grožnje zaradi pristranskosti umetne inteligence lahko spodkopljejo zaupanje zainteresiranih strani in ekipe varnostno-operativnega centra (SOC) v sisteme umetne inteligence, kar dolgoročno vpliva na varnostno držo v oblaku in ugled.
  • Pravno in regulativno tveganje: Glede na naravo pristranskosti lahko sistem umetne inteligence krši pravne ali regulativne zahteve glede zasebnosti, pravičnosti ali diskriminacije, kar ima za posledico globe in škodo ugledu.

Zmanjšanje pristranskosti in krepitev varnosti v oblaku

Medtem ko so ljudje vir pristranskosti pri varnostnih orodjih umetne inteligence, je človeško strokovno znanje bistvenega pomena za gradnjo umetne inteligence, ki ji lahko zaupamo pri varovanju oblaka. Tu so koraki, ki jih lahko sprejmejo vodje varnosti, ekipe SOC in podatkovni znanstveniki, da ublažijo pristranskost, spodbudijo zaupanje in uresničijo izboljšano zaznavanje groženj in pospešeno odzivanje, ki ga ponuja umetna inteligenca.

  • Izobražite varnostne ekipe in osebje o raznolikosti: Modeli AI se učijo iz klasifikacij in odločitev analitikov pri ocenjevanju groženj. Razumevanje naših pristranskosti in njihovega vpliva na naše odločitve lahko pomaga analitikom, da se izognejo pristranskim klasifikacijam. Vodje varnosti lahko tudi zagotovijo, da ekipe SOC predstavljajo raznolikost izkušenj, da preprečijo slepe pege, ki so posledica pristranskosti.
  • Obravnavajte kakovost in celovitost podatkov o usposabljanju: Uporabite zanesljive prakse zbiranja in predhodne obdelave podatkov, da zagotovite, da so podatki o usposabljanju nepristranski, da predstavljajo scenarije v oblaku iz resničnega sveta in pokrivajo obsežen nabor kibernetskih groženj in zlonamernega vedenja.
  • Upoštevajte posebnosti infrastrukture v oblaku: Podatki in algoritmi za usposabljanje morajo upoštevati ranljivosti, specifične za javni oblak, vključno z napačnimi konfiguracijami, tveganji za več najemnikov, dovoljenji, dejavnostjo API-ja, omrežno dejavnostjo ter tipičnim in neobičajnim vedenjem ljudi in neljudi.
  • Držite ljudi »v sredini«, hkrati pa uporabite AI za boj proti pristranskosti: Namenite človeško ekipo za spremljanje in ocenjevanje dela analitikov in algoritmov umetne inteligence za morebitno pristranskost, da zagotovite, da so sistemi nepristranski in pošteni. Hkrati lahko uporabite specializirane modele AI za prepoznavanje pristranskosti v podatkih in algoritmih za usposabljanje.
  • Investirajte v stalno spremljanje in posodabljanje: Kibernetske grožnje in akterji groženj se hitro razvijajo. Sistemi umetne inteligence se morajo nenehno učiti, modele pa je treba redno posodabljati, da zaznajo nove in nastajajoče grožnje.
  • Uporabite več plasti umetne inteligence: Vpliv pristranskosti lahko zmanjšate tako, da tveganje porazdelite na več sistemov umetne inteligence.
  • Prizadevajte si za razložljivost in preglednost: Bolj kot so zapleteni vaši algoritmi AI, težje je razumeti, kako sprejemajo odločitve ali napovedi. Sprejmite razložljive tehnike umetne inteligence, da zagotovite vpogled v razloge za rezultate umetne inteligence.
  • Bodite na tekočem z nastajajočimi tehnikami za ublažitev pristranskosti umetne inteligence: Ko napredujemo na področju umetne inteligence, smo priča porastu tehnik za odkrivanje, kvantificiranje in obravnavanje pristranskosti. Inovativne metode, kot sta adversarial de-biasing in hipotetična pravičnost, dobivajo zagon. Biti na tekočem s temi najnovejšimi tehnikami je ključnega pomena pri razvoju poštenih in učinkovitih sistemov umetne inteligence za varnost v oblaku.
  • O pristranskosti povprašajte svojega ponudnika upravljanih varnostnih storitev v oblaku: Gradnja, usposabljanje in vzdrževanje sistemov umetne inteligence za odkrivanje groženj in odzivanje nanje je težko, drago in dolgotrajno. Mnoga podjetja se obračajo na ponudnike storitev, da bi povečala svoje poslovanje SOC. S temi merili lahko ocenite, kako dobro ponudnik storitev obravnava pristranskost v AI.

Takeaway

Glede na obseg in zapletenost poslovnih okolij v oblaku je uporaba umetne inteligence za odkrivanje groženj in odzivanje bistvenega pomena, bodisi v notranjih ali zunanjih storitvah. Vendar človeške inteligence, strokovnega znanja in intuicije nikoli ne morete nadomestiti z umetno inteligenco. Da bi se izognili pristranskosti umetne inteligence in zaščitili svoja okolja v oblaku, opremite usposobljene strokovnjake za kibernetsko varnost z zmogljivimi, razširljivimi orodji umetne inteligence, ki jih upravljajo strogi pravilniki in človeški nadzor.

Spremljajte najnovejše grožnje kibernetske varnosti, na novo odkrite ranljivosti, informacije o kršitvah podatkov in nastajajoče trende. Dostavljeno dnevno ali tedensko neposredno v vaš e-poštni nabiralnik.

Časovni žig:

Več od Temno branje