Beveiliging aanpassen om AI/ML-systemen te beschermen

Beveiliging aanpassen om AI/ML-systemen te beschermen

Beveiliging aanpassen om AI/ML-systemen te beschermen PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Kunstmatige intelligentie (AI) is niet alleen het nieuwste modewoord in het bedrijfsleven; het hervormt snel industrieën en herdefiniëert bedrijfsprocessen. Maar terwijl bedrijven zich haasten om AI en machine learning (ML) in elk facet van hun bedrijfsvoering te integreren, introduceren ze ook nieuwe technologieën nieuwe veiligheids- en risico-uitdagingen. Met een focus op flexibele ontwikkelingspraktijken om een ​​concurrentievoordeel te behalen, komt beveiliging op de achterbank te staan. Dit was het geval in de begindagen van het World Wide Web en mobiele applicaties, en we zien dit opnieuw in de sprint naar AI.

De manier waarop AI- en ML-systemen worden gebouwd, getraind en beheerd verschilt aanzienlijk van de ontwikkelingspijplijn van traditionele IT-systemen, websites of apps. Hoewel sommige van dezelfde risico's die van toepassing zijn bij traditionele IT-beveiliging nog steeds relevant zijn bij AI/ML, zijn die er wel een aantal belangrijke en uitdagende verschillen. In tegenstelling tot een webapplicatie die afhankelijk is van een database, worden AI-applicaties aangedreven door ML-modellen. Het proces van het bouwen van een model omvat het verzamelen, opschonen en verfijnen van gegevens; het trainen van ML-modellen op de gegevens; vervolgens deze modellen op schaal uitvoeren om conclusies te trekken en te herhalen op basis van wat ze leren.

Er zijn vier hoofdgebieden waar traditionele software en AI/ML-ontwikkeling uiteenlopen. Dit zijn respectievelijk gewijzigde toestanden versus dynamische toestanden, regels en termen versus gebruik en invoer, proxy-omgevingen versus live systemen, en versiebeheer versus herkomstwijzigingen.

Open source AI/ML-tools, zoals MLstroom en straal, bieden handige raamwerken voor het bouwen van modellen. Maar veel van deze open source software (OSS) tools en raamwerken hebben te kampen met kant-en-klare kwetsbaarheden die tot ernstige exploitatie en schade kunnen leiden. Individueel creëren AI/ML-bibliotheken zelf een veel groter aanvalsoppervlak, omdat ze enorme hoeveelheden gegevens en modellen bevatten die slechts zo veilig zijn als de AI/ML-tool waarin ze zijn opgeslagen. Als deze tools worden gecompromitteerd, hebben aanvallers toegang tot meerdere databases aan vertrouwelijke informatie, wijzig modellen en installeer malware.

Beveiliging door ontwerp voor AI/ML

Traditionele IT-beveiliging mist een aantal belangrijke mogelijkheden voor het beschermen van AI/ML-systemen. Ten eerste is er de mogelijkheid om tools te scannen die door datawetenschappers worden gebruikt om de bouwstenen van AI/ML-systemen te ontwikkelen Jupyter-notebooks en andere hulpmiddelen in de AI/ML-toeleveringsketen, voor beveiligingsproblemen.

Hoewel gegevensbescherming een centraal onderdeel van IT-beveiliging is, wordt het bij AI/ML nog belangrijker, omdat live gegevens voortdurend worden gebruikt om een ​​model te trainen. Dit laat de deuren open voor een aanvaller om AI/ML-gegevens te manipuleren en kan ertoe leiden dat modellen beschadigd raken en niet de beoogde functies uitvoeren.

In AI/ML-omgevingen vereist gegevensbescherming de creatie van een onveranderlijk record dat gegevens aan het model koppelt. Als de gegevens op enigerlei wijze worden gewijzigd of gewijzigd, zal een gebruiker die het model opnieuw wil trainen, zien dat de hashwaarden (die worden gebruikt om de integriteit van de gegevens tijdens de overdracht te garanderen) niet overeenkomen. Dit audittraject creëert een record om te traceren wanneer het gegevensbestand is bewerkt en waar die gegevens zijn opgeslagen, om te bepalen of er een inbreuk heeft plaatsgevonden.

Bovendien is het scannen van AI/ML-modellen vereist om beveiligingsbedreigingen zoals opdrachtinjectie te detecteren. Dat komt omdat een model een bezit is dat in het geheugen leeft, maar wanneer het op schijf wordt opgeslagen (voor distributie naar collega's), kan er code in het formaat worden geïnjecteerd. Hoewel het model dus precies zo blijft werken als voorheen, zal het willekeurige code uitvoeren.

Gezien deze unieke uitdagingen zijn hier enkele nuttige best practices om te overwegen:

  • Zoek afhankelijkheden voor kwetsbaarheden: Gecontextualiseerde zichtbaarheid en krachtige zoekhulpmiddelen kunnen in realtime een breed overzicht van alle ML-systemen genereren. Het moet alle leveranciers, cloudproviders en supply chain-bronnen omvatten die betrokken zijn bij de ontwikkeling van AI/ML om een ​​beeld te bieden van alle afhankelijkheden en bedreigingen. Een dynamische ML-stuklijst (ML BOM) kan alle componenten en afhankelijkheden vermelden, waardoor de organisatie een volledige herkomst krijgt van alle AI/ML-systemen in het netwerk.

  • Veilige cloudrechten: Cloudcontainers die gegevens lekken, kunnen een fatale tekortkoming in de AI-beveiliging zijn, gezien de afhankelijkheid van die gegevens voor het leren van het model. Scanmachtigingen in de cloud zijn een prioriteit om gegevensverlies te voorkomen.

  • Geef prioriteit aan de beveiliging van gegevensopslag: Implementeer geïntegreerde beveiligingscontroles, beleid en poorten om automatisch te rapporteren over en te waarschuwen voor beleidsschendingen om de modelbeveiliging af te dwingen.

  • Ontwikkeltools voor scannen: Net zoals ontwikkelingsoperaties zijn geëvolueerd naar ontwikkelingsbeveiligingsoperaties, moet AI/ML-ontwikkeling beveiliging inbouwen in het ontwikkelingsproces, waarbij ontwikkelomgevingen en tools zoals ML Flow en hun afhankelijkheden worden gescand op eventuele kwetsbaarheden, samen met alle AI/ML-modellen en gegevensinvoer.

  • Regelmatig controleren: Geautomatiseerde tools kunnen de noodzakelijke onveranderlijke grootboeken bieden die dienen als tijdstempelversies van de AI/ML-omgeving. Dit ondersteunt de forensische analyse in het geval van een inbreuk, waaruit blijkt wie het beleid mogelijk heeft overtreden, waar en wanneer. Bovendien kunnen audits helpen de beveiliging bij te werken om het bedreigingslandschap aan te pakken.

Om het potentieel van AI te benutten en tegelijkertijd de inherente veiligheidsrisico’s aan te pakken, moeten organisaties overwegen de hierboven genoemde best practices te implementeren en te beginnen met de implementatie MLSecOps.

Tijdstempel:

Meer van Donkere lezing