Kas AI-algoritmide kallutatus ohustab pilveturvalisust?

Kas AI-algoritmide kallutatus ohustab pilveturvalisust?

Is Bias in AI Algorithms a Threat to Cloud Security? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Tehisintellekt (AI) on aidanud inimesi IT-turbetoimingutes alates 2010. aastatest, analüüsides kiiresti tohutuid andmehulki, et tuvastada pahatahtliku käitumise signaale. Kuna ettevõtte pilvekeskkonnad toodavad analüüsimiseks terabaite andmeid, sõltub pilveskaalal ohtude tuvastamine tehisintellektist. Aga kas seda tehisintellekti saab usaldada? Või tahetakse varjatud eelarvamus põhjustada vastamata ähvardusi ja andmetega seotud rikkumisi?

Pilveturbe AI algoritmide eelarvamus

Eelarvamus võib tekitada riske kasutatavates AI-süsteemides pilve turvalisus. Inimesed saavad selle varjatud ohu leevendamiseks astuda samme, kuid kõigepealt on kasulik mõista, mis tüüpi eelarvamused eksisteerivad ja kust need tulevad.

  • Treeningu andmete eelarvamus: Oletame, et tehisintellekti ja masinõppe algoritmide koolitamiseks kasutatavad andmed ei ole mitmekesised ega esinda kogu ohumaastikku. Sel juhul võib tehisintellekt jätta ohud kahe silma vahele või tuvastada healoomulise käitumise pahatahtlikuna. Näiteks ühest geograafilisest piirkonnast pärinevate ohtude suhtes kallutatud andmete põhjal koolitatud mudel ei pruugi tuvastada erinevatest piirkondadest pärinevaid ohte.
  • Algoritmiline nihe: AI algoritmid ise võivad tutvustada oma eelarvamuste vormi. Näiteks võib mustrite sobitamist kasutav süsteem anda valepositiivseid tulemusi, kui healoomuline tegevus ühtib mustriga või ei suuda tuvastada teadaolevate ohtude peeneid variatsioone. Algoritmi saab ka kogemata häälestada, et eelistada valepositiivseid tulemusi, mis toob kaasa häireväsimuse, või valede negatiivsete tulemuste eelistamiseks, mis võimaldab ohtudel läbi pääseda.
  • Kognitiivne eelarvamus: Inimesi mõjutavad teabe töötlemisel ja otsuste tegemisel isiklikud kogemused ja eelistused. Nii töötab meie mõistus. Üks kognitiivne eelarvamus on eelistada teavet, mis toetab meie praeguseid uskumusi. Kui inimesed loovad, koolitavad ja viimistlevad tehisintellekti mudeleid, saavad nad selle kognitiivse eelarvamuse AI-le üle kanda, mistõttu mudel jätab tähelepanuta uudsed või tundmatud ohud, nagu nullpäeva rünnakud.

AI eelarvamusest tulenevad ohud pilveturbele

Me nimetame AI eelarvamust varjatud ohuks pilveturbele, sest me ei tea sageli, et eelarvamus on olemas, välja arvatud juhul, kui me seda konkreetselt otsime – või kuni on liiga hilja ja andmetega seotud rikkumine on toimunud. Siin on mõned asjad, mis võivad valesti minna, kui me ei suuda kallutatust käsitleda.

  • Ebatäpne ohu tuvastamine ja vastamata ohud: Kui koolitusandmed ei ole kõikehõlmavad, mitmekesised ja ajakohased, võib tehisintellekti süsteem mõned ohud üle tähtsustada, samas kui teised alatuvastatakse või puuduvad.
  • Valve väsimus: Valepositiivsete tulemuste ületootmine võib turbemeeskonnale üle jõu käia, pannes neil potentsiaalselt tähelepanuta jätma tõelised ohud, mis hoiatuste hulka kaovad.
  • Haavatavus uute ohtude suhtes: AI-süsteemid on oma olemuselt kallutatud, sest nad näevad ainult seda, mida nad on koolitatud nägema. Süsteemid, mida ei hoita pideva värskendamise kaudu ja mis on varustatud pideva õppimisvõimega, ei kaitse pilvekeskkondi uute esilekerkivate ohtude eest.
  • Usalduse kaotamine: AI eelarvamusest tingitud korduvad ebatäpsused ohtude tuvastamisel ja reageerimisel võivad kahjustada sidusrühmade ja turvaoperatsioonide keskuse (SOC) meeskonna usaldust tehisintellektisüsteemide vastu, mõjutades pikaajaliselt pilveturbe positsiooni ja mainet.
  • Juriidiline ja regulatiivne risk: Sõltuvalt eelarvamuse olemusest võib AI-süsteem rikkuda privaatsuse, õigluse või diskrimineerimise õiguslikke või regulatiivseid nõudeid, mille tulemuseks on trahvid ja maine kahjustamine.

Eelarvamuste leevendamine ja pilveturbe tugevdamine

Kuigi inimesed on AI turbetööriistade eelarvamuste allikaks, on inimeste teadmised hädavajalikud AI loomiseks, mida saab pilve kaitsmisel usaldada. Siin on sammud, mida turvajuhid, SOC-meeskonnad ja andmeteadlased saavad ette võtta, et leevendada eelarvamusi, suurendada usaldust ning mõista tehisintellekti pakutavat täiustatud ohtude tuvastamist ja kiirendatud reageerimist.

  • Harida turvameeskondi ja töötajaid mitmekesisuse kohta: AI mudelid õpivad klassifikatsioonidest ja analüütikute otsustest ohtude hindamisel. Meie eelarvamuste ja nende otsuste mõju mõistmine võib aidata analüütikutel vältida kallutatud klassifikatsioone. Turvajuhid saavad ka tagada, et SOC-meeskonnad esindaksid erinevaid kogemusi, et vältida eelarvamustest tulenevaid pimealasid.
  • Treeningandmete kvaliteedi ja terviklikkuse käsitlemine: Kasutage tugevaid andmete kogumise ja eeltöötlemise tavasid tagamaks, et koolitusandmed on kallutatud, esindavad reaalseid pilvestsenaariume ning hõlmavad laia valikut küberohte ja pahatahtlikku käitumist.
  • Arvestage pilve infrastruktuuri iseärasusi: Koolitusandmed ja -algoritmid peavad arvestama avaliku pilvepõhise spetsiifilise haavatavusega, sealhulgas väärkonfiguratsioonid, mitme üürilepinguga seotud riskid, load, API tegevus, võrgutegevus ning inimeste ja mitteinimeste tüüpiline ja anomaalne käitumine.
  • Hoidke inimesi "keskel", kasutades tehisintellekti, et võidelda eelarvamustega. Pühendage inimmeeskond, kes jälgib ja hindab analüütikute tööd ja tehisintellekti algoritme võimalike eelarvamuste suhtes, et veenduda süsteemide erapooletuses ja õigluses. Samal ajal saate kasutada spetsiaalseid tehisintellekti mudeleid, et tuvastada koolitusandmete ja algoritmide kallutatus.
  • Investeerige pidevasse jälgimisse ja uuendamisse: Küberohud ja ohus osalejad arenevad kiiresti. AI-süsteemid peavad pidevalt õppima ja mudeleid tuleks regulaarselt värskendada, et tuvastada uusi ja tekkivaid ohte.
  • Kasutage mitut AI kihti: Kallutatuse mõju saate minimeerida, jaotades riski mitme AI-süsteemi vahel.
  • Püüdke seletatavuse ja läbipaistvuse poole: Mida keerulisemad on teie tehisintellekti algoritmid, seda raskem on mõista, kuidas nad otsuseid või ennustusi teevad. Kasutage seletatavaid tehisintellekti tehnikaid, et anda ülevaade tehisintellekti tulemuste põhjustest.
  • Püsige kursis uute tehisintellekti eelarvamuste leevendamise tehnikatega. Tehisintellekti valdkonnas arenedes oleme tunnistajaks erapoolikuse tuvastamise, kvantifitseerimise ja käsitlemise tehnikate tõusu. Uuenduslikud meetodid, nagu võistlev eelarvamuste vähendamine ja faktivastane õiglus, koguvad hoogu. Pilveturbe jaoks õiglaste ja tõhusate AI-süsteemide väljatöötamisel on ülimalt oluline olla nende uusimate tehnikatega kursis.
  • Küsige oma hallatud pilveturbeteenuste pakkujalt eelarvamuste kohta: Ohtude tuvastamiseks ja reageerimiseks mõeldud tehisintellektisüsteemide loomine, koolitamine ja hooldamine on raske, kulukas ja aeganõudev. Paljud ettevõtted pöörduvad teenusepakkujate poole, et suurendada oma SOC-tegevust. Kasutage neid kriteeriume, et hinnata, kui hästi teenusepakkuja tegeleb tehisintellekti eelarvamustega.

Buffee

Arvestades ettevõtte pilvekeskkondade ulatust ja keerukust, on tehisintellekti kasutamine ohtude tuvastamiseks ja reageerimiseks hädavajalik, olenemata sellest, kas need on ettevõttesisesed või -välised. Inimese intelligentsust, asjatundlikkust ja intuitsiooni ei saa aga kunagi asendada tehisintellektiga. Tehisintellekti eelarvamuste vältimiseks ja oma pilvekeskkondade kaitsmiseks varustage kvalifitseeritud küberjulgeolekuspetsialistid võimsate skaleeritavate AI-tööriistadega, mida juhivad tugevad poliitikad ja inimjärelevalve.

Hoidke end kursis viimaste küberjulgeolekuohtude, äsja avastatud haavatavuste, andmete rikkumise teabe ja esilekerkivate trendidega. Tarnitakse iga päev või kord nädalas otse teie e-posti postkasti.

Ajatempel:

Veel alates Tume lugemine