Sikring af AI: Hvad du bør vide

Sikring af AI: Hvad du bør vide

Securing AI: What You Should Know PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Maskinlæringsværktøjer har været en del af standard forretnings- og IT-arbejdsgange i årevis, men den udviklende generative AI-revolution driver en hurtig stigning i både indførelse og bevidsthed om disse værktøjer. Mens AI tilbyder effektivitetsfordele på tværs af forskellige industrier, kræver disse kraftfulde nye værktøjer særlige sikkerhedsovervejelser.

Hvordan er sikring af AI anderledes?

Den nuværende AI-revolution kan være ny, men sikkerhedsteams hos Google og andre steder har arbejdet med AI-sikkerhed i mange år, hvis ikke årtier. På mange måder, grundlæggende principper for sikring af AI-værktøjer er de samme som generelle bedste praksis for cybersikkerhed. Behovet for at administrere adgang og beskytte data gennem grundlæggende teknikker som kryptering og stærk identitet ændres ikke, bare fordi AI er involveret.

Et område, hvor sikring af AI er anderledes, er i aspekterne af datasikkerhed. AI-værktøjer er drevet - og i sidste ende programmeret - af data, hvilket gør dem sårbare over for nye angreb, såsom træning af dataforgiftning. Ondsindede aktører, der kan fodre AI-værktøjet med fejlbehæftede data (eller korrupte legitime træningsdata), kan potentielt beskadige eller direkte bryde dem på en måde, der er mere kompleks end hvad der ses med traditionelle systemer. Og hvis værktøjet aktivt "lærer", så dets output ændrer sig baseret på input over tid, skal organisationer sikre det mod en drift væk fra dets oprindelige tilsigtede funktion.

Med et traditionelt (ikke-AI) stort virksomhedssystem, er det, du får ud af det, hvad du putter i det. Du vil ikke se et ondsindet output uden et ondsindet input. Men som Google CISO Phil Venables sagde i en nylig podcast, "For at implementere [et] AI-system skal du tænke på input- og outputstyring."
Kompleksiteten af ​​AI-systemer og deres dynamiske natur gør dem sværere at sikre end traditionelle systemer. Der skal udvises forsigtighed både på input-stadiet, for at overvåge, hvad der går ind i AI-systemet, og på output-stadiet for at sikre, at output er korrekte og troværdige.

Implementering af et Secure AI Framework

Beskyttelse af AI-systemerne og foregribelse af nye trusler er topprioriteter for at sikre, at AI-systemer opfører sig efter hensigten. Googles Secure AI Framework (SAIF) og dens Sikring af AI: Ens eller anderledes? rapport er gode steder at starte, som giver et overblik over, hvordan man tænker over og adresserer de særlige sikkerhedsudfordringer og nye sårbarheder i forbindelse med udvikling af AI.

SAIF starter med at etablere en klar forståelse af, hvilke AI-værktøjer din organisation vil bruge, og hvilket specifikt forretningsproblem de vil løse. Det er afgørende at definere dette på forhånd, da det vil give dig mulighed for at forstå, hvem i din organisation der vil være involveret, og hvilke data værktøjet skal have adgang til (hvilket vil hjælpe med den strenge datastyring og indholdssikkerhedspraksis, der er nødvendig for at sikre AI). Det er også en god idé at kommunikere passende use cases og begrænsninger af AI på tværs af din organisation; denne politik kan hjælpe med at beskytte mod uofficiel "skygge IT"-brug af AI-værktøjer.

Efter klart at have identificeret værktøjstyperne og use casen, bør din organisation samle et team til at administrere og overvåge AI-værktøjet. Dette team bør omfatte dine it- og sikkerhedsteams, men også involvere dit risikostyringsteam og juridiske afdeling, samt overveje privatliv og etiske bekymringer.

Når du har identificeret holdet, er det tid til at begynde at træne. For at sikre AI ordentligt i din organisation skal du starte med en primer, der hjælper alle med at forstå, hvad værktøjet er, hvad det kan, og hvor tingene kan gå galt. Når et værktøj kommer i hænderne på medarbejdere, der ikke er uddannet i AI's evner og mangler, øger det risikoen for en problematisk hændelse markant.

Efter at have taget disse indledende trin, har du lagt grundlaget for at sikre AI i din organisation. Der er seks kerneelementer i Googles SAIF som du bør implementere, begyndende med sikre-som-standard-fundamenter og gå videre til at skabe effektive korrektions- og feedback-cyklusser ved hjælp af rødt teaming.

Et andet væsentligt element i at sikre AI er at holde mennesker i løkken så meget som muligt, samtidig med at man erkender, at manuel gennemgang af AI-værktøjer kunne være bedre. Træning er afgørende, efterhånden som du gør fremskridt med brugen af ​​kunstig intelligens i din organisation – træning og genoptræning, ikke af selve værktøjerne, men af ​​dine teams. Når AI bevæger sig ud over, hvad de faktiske mennesker i din organisation forstår og kan dobbelttjekke, øges risikoen for et problem hurtigt.

AI-sikkerhed udvikler sig hurtigt, og det er afgørende for dem, der arbejder i marken, at forblive på vagt. Det er afgørende at identificere potentielle nye trusler og udvikle modforanstaltninger for at forhindre eller afbøde dem, så AI kan fortsætte med at hjælpe virksomheder og enkeltpersoner rundt om i verden.

Læs mere Partner Perspectives fra Google Cloud

Tidsstempel:

Mere fra Mørk læsning