Anpassa säkerheten för att skydda AI/ML-system

Anpassa säkerheten för att skydda AI/ML-system

Anpassa säkerhet för att skydda AI/ML-system PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Artificiell intelligens (AI) är inte bara det senaste modeordet inom näringslivet; det omformar snabbt branscher och omdefinierar affärsprocesser. Men när företag tävlar om att integrera AI och maskininlärning (ML) i alla aspekter av sin verksamhet, introducerar de också nya säkerhets- och riskutmaningar. Med fokus på agila utvecklingsmetoder för att uppnå en konkurrensfördel, tar säkerheten tillbaka. Detta var fallet i början av World Wide Web och mobilapplikationer, och vi ser det igen i spurten mot AI.

Sättet som AI- och ML-system byggs, tränas och drivs skiljer sig väsentligt från utvecklingspipen för traditionella IT-system, webbplatser eller appar. Även om vissa av samma risker som gäller inom traditionell IT-säkerhet fortsätter att vara relevanta inom AI/ML, finns det flera betydande och utmanande skillnader. Till skillnad från en webbapplikation som är beroende av en databas, drivs AI-applikationer av ML-modeller. Processen att bygga en modell innebär att samla in, sanera och förfina data; utbildning av ML-modeller på data; kör sedan dessa modeller i stor skala för att dra slutsatser och iterera baserat på vad de lär sig.

Det finns fyra huvudområden där traditionell mjukvara och AI/ML-utveckling skiljer sig åt. Dessa är respektive ändrade tillstånd kontra dynamiska tillstånd, regler och termer kontra användning och inmatning, proxymiljöer kontra livesystem och versionskontroll kontra härkomständringar.

AI/ML-verktyg med öppen källkod, som t.ex MLflow och Stråle, ger praktiska ramar för att bygga modeller. Men många av dessa verktyg och ramverk för öppen källkod (OSS) har lidit av out-of-the-box sårbarheter som kan leda till allvarlig exploatering och skada. Individuellt skapar AI/ML-bibliotek själva en mycket större attackyta, eftersom de innehåller enorma mängder data och modeller som bara är lika säkra som AI/ML-verktyget de är sparade i. Om dessa verktyg äventyras kan angripare komma åt flera databasers värde av konfidentiell information, modifiera modeller och plantera skadlig programvara.

Security by Design för AI/ML

Traditionell IT-säkerhet saknar flera nyckelfunktioner för att skydda AI/ML-system. Det första är möjligheten att skanna verktyg som används av datavetare för att utveckla byggstenarna i AI/ML-system, som Jupyter Anteckningsböcker och andra verktyg i AI/ML-försörjningskedjan, för säkerhetssårbarheter.

Även om dataskydd är en central komponent i IT-säkerhet, får det i AI/ML ökad betydelse, eftersom livedata ständigt används för att träna en modell. Detta lämnar dörrarna öppna för en angripare att manipulera AI/ML-data och kan resultera i att modeller blir korrupta och inte utför sina avsedda funktioner.

I AI/ML-miljöer kräver dataskydd skapandet av en oföränderlig post som länkar data till modellen. Därför, om data ändras eller ändras på något sätt, skulle en användare som vill träna om modellen se att hash-värdena (som används för att säkerställa dataintegriteten under överföringen) inte stämmer överens. Detta granskningsspår skapar en post för att spåra när datafilen redigerades och var dessa data lagras, för att avgöra om det fanns ett intrång.

Dessutom krävs genomsökning av AI/ML-modeller för att upptäcka säkerhetshot som kommandoinjektion. Det beror på att en modell är en tillgång som finns i minnet, men när den sparas på disk (för distribution till medarbetare) kan formatet ha kod injicerad i det. Så medan modellen kommer att fortsätta att köras exakt som den gjorde tidigare, kommer den att exekvera godtycklig kod.

Med tanke på dessa unika utmaningar, här är några användbara bästa metoder att överväga:

  • Hitta beroenden för sårbarheter: Kontextualiserad synlighet och starka frågeverktyg kan generera en bred bild av alla ML-system i realtid. Det bör sträcka sig över alla leverantörer, molnleverantörer och försörjningskedjans resurser som är involverade i AI/ML-utveckling för att ge en överblick över alla beroenden och hot. En dynamisk ML stycklista (ML BOM), kan lista alla komponenter och beroenden, vilket ger organisationen en fullständig härkomst av alla AI/ML-system i nätverket.

  • Säkra molnbehörigheter: Molnbehållare som läcker data kan vara ett ödesdigert fel i AI-säkerhet, med tanke på modellens beroende av denna data för lärande. Skanningsbehörigheter i molnet är en prioritet för att förhindra dataförlust.

  • Prioritera datalagringssäkerhet: Implementera integrerade säkerhetskontroller, policyer och grindar för att automatiskt rapportera om och varna om policyöverträdelser för att upprätthålla modellsäkerhet.

  • Skanna utvecklingsverktyg: Precis som utvecklingsverksamheten utvecklades till utvecklingssäkerhetsoperationer, måste AI/ML-utveckling bygga in säkerhet i utvecklingsprocessen, skanna utvecklingsmiljöer och verktyg som ML Flow och deras beroenden för eventuella sårbarheter, tillsammans med alla AI/ML-modeller och datainmatning.

  • Revision regelbundet: Automatiserade verktyg kan tillhandahålla nödvändiga oföränderliga reskontra som fungerar som tidsstämplade versioner av AI/ML-miljön. Detta kommer att stödja kriminalteknisk analys i händelse av ett brott, som visar vem som kan ha brutit mot policyn, var och när. Dessutom kan revisioner hjälpa till att uppdatera skydden för att hantera hotbilden.

För att utnyttja AI:s potential samtidigt som de hanterar dess inneboende säkerhetsrisker bör organisationer överväga att implementera de bästa praxis som anges ovan och börja implementera MLSecOps.

Tidsstämpel:

Mer från Mörk läsning