AI beveiligen: wat u moet weten

AI beveiligen: wat u moet weten

AI beveiligen: wat u moet weten PlatoBlockchain-gegevensintelligentie. Verticaal zoeken. Ai.

Machine learning-tools maken al jaren deel uit van de standaard bedrijfs- en IT-workflows, maar de zich ontvouwende generatieve AI-revolutie zorgt voor een snelle toename van zowel de acceptatie als het bewustzijn van deze tools. Hoewel AI efficiรซntievoordelen biedt in verschillende sectoren, vereisen deze krachtige opkomende tools speciale beveiligingsoverwegingen.

Hoe is het beveiligen van AI anders?

De huidige AI-revolutie mag dan nieuw zijn, beveiligingsteams bij Google en elders werken al vele jaren, zo niet tientallen jaren, aan AI-beveiliging. Op veel manierenzijn de fundamentele beginselen voor het beveiligen van AI-instrumenten dezelfde als de algemene best practices op het gebied van cyberbeveiliging. De noodzaak om de toegang te beheren en gegevens te beschermen door middel van fundamentele technieken zoals encryptie en een sterke identiteit verandert niet alleen omdat AI erbij betrokken is.

Eรฉn gebied waarop het beveiligen van AI anders is, betreft de aspecten van gegevensbeveiliging. AI-tools worden aangedreven โ€“ en uiteindelijk geprogrammeerd โ€“ door data, waardoor ze kwetsbaar zijn voor nieuwe aanvallen, zoals datavergiftiging door training. Kwaadwillige actoren die de AI-tool met gebrekkige gegevens kunnen voeden (of legitieme trainingsgegevens kunnen corrumperen) kunnen deze mogelijk beschadigen of ronduit breken op een manier die complexer is dan wat bij traditionele systemen wordt gezien. En als de tool actief โ€˜leertโ€™, zodat de output in de loop van de tijd verandert op basis van input, moeten organisaties ervoor zorgen dat deze niet afdwaalt van de oorspronkelijk beoogde functie.

Met een traditioneel (niet-AI) groot ondernemingssysteem haal je eruit wat je erin stopt. U zult geen kwaadaardige uitvoer zien zonder een kwaadaardige invoer. Maar als Google CISO Phil Venables zei in een recente podcast, โ€œOm [een] AI-systeem te implementeren, moet je nadenken over input- en outputbeheer.โ€
De complexiteit van AI-systemen en hun dynamische aard maken ze moeilijker te beveiligen dan traditionele systemen. Zowel in de inputfase, om te monitoren wat er in het AI-systeem terechtkomt, als in de outputfase, moet ervoor worden gezorgd dat de output correct en betrouwbaar is.

Implementatie van een veilig AI-framework

Het beschermen van de AI-systemen en het anticiperen op nieuwe bedreigingen zijn topprioriteiten om ervoor te zorgen dat AI-systemen zich gedragen zoals bedoeld. Het Secure AI-framework van Google (SAIF) en zijn AI beveiligen: vergelijkbaar of anders? Het rapport is een goed startpunt en biedt een overzicht van hoe we moeten nadenken over de specifieke veiligheidsuitdagingen en nieuwe kwetsbaarheden die verband houden met de ontwikkeling van AI en hoe we deze kunnen aanpakken.

SAIF begint met het vaststellen van een duidelijk inzicht in welke AI-tools uw organisatie gaat gebruiken en welk specifiek bedrijfsprobleem zij zullen aanpakken. Het is van cruciaal belang om dit vooraf te definiรซren, omdat u hierdoor kunt begrijpen wie er in uw organisatie bij betrokken zal zijn en tot welke gegevens de tool toegang moet hebben (wat zal helpen bij de strikte praktijken op het gebied van gegevensbeheer en inhoudveiligheid die nodig zijn om AI te beveiligen). Het is ook een goed idee om de juiste gebruiksscenario's en beperkingen van AI binnen uw organisatie te communiceren; dit beleid kan helpen beschermen tegen onofficieel โ€˜schaduw-ITโ€™-gebruik van AI-tools.

Nadat u de tooltypen en de use case duidelijk heeft geรฏdentificeerd, moet uw organisatie een team samenstellen om de AI-tool te beheren en te monitoren. Dat team moet bestaan โ€‹โ€‹uit uw IT- en beveiligingsteams, maar ook uit uw risicobeheerteam en de juridische afdeling, en moet rekening houden met privacy en ethische kwesties.

Zodra je het team hebt geรฏdentificeerd, is het tijd om te beginnen met trainen. Om AI goed te beveiligen in uw organisatie, moet u beginnen met een inleiding waarmee iedereen begrijpt wat de tool is, wat deze kan doen en waar er dingen mis kunnen gaan. Wanneer een tool in handen komt van medewerkers die niet zijn getraind in de mogelijkheden en tekortkomingen van AI, vergroot dit de kans op een problematisch incident aanzienlijk.

Nadat u deze voorbereidende stappen heeft gezet, heeft u de basis gelegd voor het veiligstellen van AI in uw organisatie. Er zijn zes kernelementen van Google's SAIF die u moet implementeren, te beginnen met een standaard veilige basis en verder te gaan met het creรซren van effectieve correctie- en feedbackcycli met behulp van rode teaming.

Een ander essentieel onderdeel van het beveiligen van AI is het zoveel mogelijk op de hoogte houden van mensen, terwijl ook wordt erkend dat handmatige beoordeling van AI-instrumenten beter zou kunnen zijn. Training is van cruciaal belang naarmate u vooruitgang boekt met het gebruik van AI in uw organisatie: training en herscholing, niet van de tools zelf, maar van uw teams. Wanneer AI verder gaat dan wat de daadwerkelijke mensen in uw organisatie begrijpen en kunnen dubbelchecken, neemt het risico op een probleem snel toe.

AI-beveiliging evolueert snel en het is van cruciaal belang dat degenen die in het veld werken waakzaam blijven. Het is van cruciaal belang om potentiรซle nieuwe bedreigingen te identificeren en tegenmaatregelen te ontwikkelen om deze te voorkomen of te beperken, zodat AI bedrijven en individuen over de hele wereld kan blijven helpen.

Lees meer Partnerperspectieven van Google Cloud

Tijdstempel:

Meer van Donkere lezing