Sikring av AI: Hva du bør vite

Sikring av AI: Hva du bør vite

Sikring av AI: Hva du bør vite PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Maskinlæringsverktøy har vært en del av standard forretnings- og IT-arbeidsflyter i årevis, men den utfoldende generative AI-revolusjonen driver frem en rask økning i både bruk og bevissthet om disse verktøyene. Mens AI tilbyr effektivitetsfordeler på tvers av ulike bransjer, krever disse kraftige nye verktøyene spesielle sikkerhetshensyn.

Hvordan er Securing AI annerledes?

Den nåværende AI-revolusjonen kan være ny, men sikkerhetsteam hos Google og andre steder har jobbet med AI-sikkerhet i mange år, om ikke tiår. På mange måter, grunnleggende prinsipper for å sikre AI-verktøy er de samme som generelle beste praksiser for cybersikkerhet. Behovet for å administrere tilgang og beskytte data gjennom grunnleggende teknikker som kryptering og sterk identitet endres ikke bare fordi AI er involvert.

Et område hvor sikring av AI er annerledes er i aspektene ved datasikkerhet. AI-verktøy er drevet – og til slutt programmert – av data, noe som gjør dem sårbare for nye angrep, for eksempel treningsdataforgiftning. Ondsinnede aktører som kan mate AI-verktøyet med mangelfulle data (eller korrupte legitime treningsdata) kan potensielt skade eller direkte bryte dem på en måte som er mer kompleks enn det man ser med tradisjonelle systemer. Og hvis verktøyet aktivt "lærer" slik at produksjonen endres basert på input over tid, må organisasjoner sikre det mot en drift bort fra den opprinnelige tiltenkte funksjonen.

Med et tradisjonelt (ikke-AI) stort virksomhetssystem, er det du får ut av det det du legger inn i det. Du vil ikke se en ondsinnet utgang uten en ondsinnet inngang. Men som Google CISO Phil Venables sa i en nylig podcast, "For å implementere [et] AI-system, må du tenke på input og output management."
Kompleksiteten til AI-systemer og deres dynamiske natur gjør dem vanskeligere å sikre enn tradisjonelle systemer. Det må utvises forsiktighet både på input-stadiet, for å overvåke hva som går inn i AI-systemet, og på output-stadiet for å sikre at utdataene er korrekte og pålitelige.

Implementering av et sikkert AI-rammeverk

Beskyttelse av AI-systemene og å forutse nye trusler er toppprioriteter for å sikre at AI-systemer oppfører seg som tiltenkt. Googles Secure AI Framework (SAIF) og dens Sikre AI: Lignende eller forskjellig? rapporten er gode steder å starte, og gir en oversikt over hvordan du tenker på og adresserer de spesielle sikkerhetsutfordringene og nye sårbarhetene knyttet til utvikling av AI.

SAIF starter med å etablere en klar forståelse av hvilke AI-verktøy organisasjonen din vil bruke og hvilket spesifikke forretningsproblem de vil ta opp. Å definere dette på forhånd er avgjørende, da det vil tillate deg å forstå hvem i organisasjonen din som vil være involvert og hvilke data verktøyet trenger å få tilgang til (som vil hjelpe med den strenge datastyringen og innholdssikkerhetspraksisen som er nødvendig for å sikre AI). Det er også en god idé å kommunisere passende brukstilfeller og begrensninger for AI på tvers av organisasjonen din; denne policyen kan bidra til å beskytte mot uoffisiell «skygge-IT»-bruk av AI-verktøy.

Etter å ha klart identifisert verktøytypene og brukssaken, bør organisasjonen din sette sammen et team for å administrere og overvåke AI-verktøyet. Dette teamet bør inkludere IT- og sikkerhetsteamene dine, men også involvere risikostyringsteamet og juridisk avdeling, samt vurdere personvern og etiske bekymringer.

Når du har identifisert laget, er det på tide å begynne å trene. For å sikre AI på riktig måte i organisasjonen din, må du starte med en grunning som hjelper alle å forstå hva verktøyet er, hva det kan gjøre og hvor ting kan gå galt. Når et verktøy kommer i hendene på ansatte som ikke er opplært i evnene og mangler ved AI, øker det risikoen for en problematisk hendelse betydelig.

Etter å ha tatt disse foreløpige trinnene, har du lagt grunnlaget for å sikre AI i organisasjonen din. Det er seks kjerneelementer i Googles SAIF som du bør implementere, starte med sikker-som-standard-fundamenter og gå videre til å lage effektive korreksjons- og tilbakemeldingssykluser ved å bruke rød teaming.

Et annet viktig element for å sikre AI er å holde mennesker i løkken så mye som mulig, samtidig som man erkjenner at manuell gjennomgang av AI-verktøy kan være bedre. Trening er viktig når du går videre med bruk av kunstig intelligens i organisasjonen din – opplæring og omskolering, ikke av selve verktøyene, men av teamene dine. Når AI går utover det de faktiske menneskene i organisasjonen din forstår og kan dobbeltsjekke, øker risikoen for et problem raskt.

AI-sikkerhet utvikler seg raskt, og det er viktig for de som jobber i felten å være årvåkne. Det er avgjørende å identifisere potensielle nye trusler og utvikle mottiltak for å forhindre eller dempe dem, slik at AI kan fortsette å hjelpe bedrifter og enkeltpersoner over hele verden.

Les mer Partnerperspektiver fra Google Cloud

Tidstempel:

Mer fra Mørk lesning