Turvalisuse kohandamine AI/ML-süsteemide kaitsmiseks

Turvalisuse kohandamine AI/ML-süsteemide kaitsmiseks

Turvalisuse kohandamine AI/ML-süsteemide PlatoBlockchaini andmeluure kaitsmiseks. Vertikaalne otsing. Ai.

Tehisintellekt (AI) ei ole ainult äritegevuse uusim sõnakõlks; see kujundab kiiresti ümber tööstusi ja määratleb ümber äriprotsesse. Kuid samal ajal, kui ettevõtted püüavad integreerida tehisintellekti ja masinõppe (ML) oma tegevuse igasse tahku, võtavad nad ka kasutusele uued julgeoleku- ja riskialased väljakutsed. Keskendudes agiilsetele arendustavadele konkurentsieelise saavutamiseks, jääb turvalisus tagaplaanile. See oli nii ülemaailmse veebi ja mobiilirakenduste algusaegadel ning me näeme seda taas tehisintellekti sprindis.

AI- ja ML-süsteemide ehitamise, koolitamise ja käitamise viis erineb oluliselt traditsiooniliste IT-süsteemide, veebisaitide või rakenduste arendustorustikust. Kuigi mõned samad riskid, mis kehtivad traditsioonilises IT-turvalisuses, on AI/ML-i puhul endiselt olulised, on neid mitmeid olulisi ja väljakutseid pakkuvaid erinevusi. Erinevalt veebirakendusest, mis tugineb andmebaasile, töötavad AI-rakendused ML-mudelitel. Mudeli loomise protsess hõlmab andmete kogumist, puhastamist ja täpsustamist; ML-mudelite treenimine andmetel; seejärel käivitage need mudelid mastaabis, et teha järeldusi ja itereerida õpitu põhjal.

On neli peamist valdkonda, kus traditsiooniline tarkvara ja AI/ML arendus lahknevad. Need on vastavalt muutunud olekud versus dünaamilised olekud, reeglid ja terminid versus kasutus ja sisend, puhverserveri keskkonnad versus reaalajas süsteemid ning versioonikontroll versus lähtekoha muutused.

Avatud lähtekoodiga AI/ML tööriistad, nt MLflow ja kiir, pakuvad mugavaid raamistikke mudelite ehitamiseks. Kuid paljud neist avatud lähtekoodiga tarkvara (OSS) tööriistadest ja raamistikest on kannatanud olemasolevate haavatavuste all, mis võivad põhjustada tõsist ärakasutamist ja kahju. Üksiti loovad AI/ML teegid ise palju suurema rünnakupinna, kuna need sisaldavad tohutul hulgal andmeid ja mudeleid, mis on sama turvalised kui AI/ML-i tööriist, millesse need on salvestatud. Kui need tööriistad on ohus, pääsevad ründajad juurde mitmele andmebaaside väärtuses konfidentsiaalset teavet, muuta mudeleid ja istutada pahavara.

Disainitud turvalisus AI/ML jaoks

Traditsioonilisel IT-turvalisusel puuduvad mitmed võtmevõimalused AI/ML-süsteemide kaitsmiseks. Esiteks on see võimalus skannida tööriistu, mida andmeteadlased kasutavad AI/ML-süsteemide ehitusplokkide väljatöötamiseks, nagu Jupyteri sülearvutid ja muud tööriistad AI/ML tarneahelas turvaaukude jaoks.

Kui andmekaitse on IT-turvalisuse keskne komponent, siis tehisintellekti/ML-i puhul omandab see suurema tähtsuse, kuna mudeli koolitamiseks kasutatakse pidevalt reaalajas andmeid. See jätab ründajale avatuks uksed AI/ML-andmetega manipuleerimiseks ning mudelid võivad rikkuda ega täida ettenähtud funktsioone.

AI/ML keskkondades nõuab andmekaitse muutumatu kirje loomist, mis seob andmed mudeliga. Seega, kui andmeid mingil viisil muudetakse või muudetakse, näeb kasutaja, kes soovib mudelit ümber õpetada, et räsiväärtused (mida kasutatakse andmete terviklikkuse tagamiseks edastamise ajal) ei ühti. See kontrolljälg loob kirje, et jälgida, millal andmefaili redigeeriti ja kus need andmed on salvestatud, et teha kindlaks, kas rikkumine toimus.

Lisaks on turvaohtude (nt käsusüsti) tuvastamiseks vaja AI/ML-i mudeleid skannida. Selle põhjuseks on asjaolu, et mudel on vara, mis elab mälus, kuid kettale salvestamisel (töökaaslastele levitamiseks) võidakse vormingusse kood sisestada. Seega, kuigi mudel jätkab töötamist täpselt nii nagu varem, käivitab see suvalise koodi.

Arvestades neid ainulaadseid väljakutseid, on siin mõned kasulikud parimad tavad, mida kaaluda.

  • Haavatavuste sõltuvuste leidmine: Kontekstuaalne nähtavus ja tugevad päringutööriistad võivad luua laiaulatusliku ülevaate kõigist ML-süsteemidest reaalajas. See peaks hõlmama kõiki AI/ML-i arendamisega seotud tarnijaid, pilveteenuse pakkujaid ja tarneahela ressursse, et anda ülevaade kõigist sõltuvustest ja ohtudest. Dünaamiline ML-materjalide loend (ML BOM) võib loetleda kõik komponendid ja sõltuvused, mis annab organisatsioonile täieliku lähtekoha kõigi võrgus olevate AI/ML-süsteemide kohta.

  • Turvalised pilveload: Pilvekonteinerite andmete lekkimine võib olla AI-turvalisuses saatuslik viga, arvestades mudeli sõltuvust nendest andmetest õppimiseks. Andmete kadumise vältimiseks on prioriteet pilves skannimise õigused.

  • Andmete salvestamise turvalisuse eelistamine: Rakendage integreeritud turvakontrolle, -poliitikaid ja -väravaid, et automaatselt teavitada eeskirjade rikkumistest ja hoiatada nendest, et jõustada mudeli turvalisus.

  • Skaneerimise arendustööriistad: Nii nagu arendustoimingud arenesid arendusturbetoiminguteks, peab AI/ML arendus lisama arendusprotsessi turvalisuse, skannides arenduskeskkondi ja tööriistu, nagu ML Flow ja nende sõltuvusi mis tahes haavatavuste suhtes, koos kõigi AI/ML mudelite ja andmesisendiga.

  • Kontrollige regulaarselt: Automatiseeritud tööriistad võivad pakkuda vajalikke muutumatuid pearaamatuid, mis toimivad AI/ML keskkonna ajatempliga versioonidena. See toetab rikkumise korral kohtuekspertiisi analüüsi, mis näitab, kes võis poliitikat rikkuda, kus ja millal. Lisaks võivad auditid aidata värskendada kaitsemeetmeid ohumaastiku lahendamiseks.

Tehisintellekti potentsiaali ärakasutamiseks ja sellega kaasnevate turvariskidega tegelemiseks peaksid organisatsioonid kaaluma ülaltoodud parimate tavade rakendamist ja alustama nende rakendamist. MLSecOps.

Ajatempel:

Veel alates Tume lugemine