CISA's køreplan: Kortlægning af et kursus for pålidelig AI-udvikling

CISA's køreplan: Kortlægning af et kursus for pålidelig AI-udvikling

CISA's Road Map: Charting a Course for Trustworthy AI Development PlatoBlockchain Data Intelligence. Vertical Search. Ai.

KOMMENTAR
Hurtig indførelse af kunstig intelligens-teknologi har udløst alvorlige cyber-bekymringer blandt AI-eksperter, politiske beslutningstagere, tech industri-titaner, nationer og verdensledere. Som svar afslørede Cybersecurity and Infrastructure Agency (CISA) sin 2023-2024 "CISA køreplan for kunstig intelligens," med det formål at skabe sikker og troværdig udvikling og brug af AI, som anvist af Det Hvide Hus bekendtgørelse 14110.

CISA udgav sin "Strategisk plan” for 2023-2025 med missionen om at levere en sikker og modstandsdygtig infrastruktur til den amerikanske offentlighed. AI-køreplanen er en tilpasning af de samme fire mål, der er fremhævet i den strategiske plan:

  • Cyberforsvar: Mens AI-systemer kan hjælpe organisationer med at forbedre deres forsvar mod nye såvel som avancerede cybertrusler, udgør AI-baserede softwaresystemer en antallet af risici der kræver en robust AI forsvar. Køreplanen har til formål at fremme den gavnlige brug af AI og samtidig beskytte nationens systemer mod AI-baserede trusler.

  • Risikoreduktion og modstandsdygtighed: Kritisk infrastruktur organisationer bruger i stigende grad AI-systemer til at vedligeholde og styrke deres egen cyberresiliens. Med sit køreplan sigter CISA mod at fremme en ansvarlig og risikobevidst indførelse af AI-baserede softwaresystemer, der er "sikkert ved design” — hvor sikkerhed implementeres i designfasen af ​​et produkts udviklingslivscyklus, således at udnyttelige fejl kan reduceres ved kilden.

  • Operationelt samarbejde: Efterhånden som AI-teknologien breder sig, kan amerikanske borgere og kritiske infrastruktursektorer blive udsat for målrettede trusler, som kan kræve informationsdeling og koordinerede reaktioner fra organisationer, retshåndhævende myndigheder og internationale partnere. CISA planlægger at udvikle en ramme, der hjælper med at forbedre tilpasning og koordinering på tværs af relevante interessenter.

  • Agenturforening: CISA sigter mod at forene og integrere AI-softwaresystemer på tværs af agenturet, hvilket vil hjælpe det med at bruge AI-systemer mere sammenhængende. CISA planlægger også at rekruttere og udvikle en arbejdsstyrke, der er i stand til optimalt at udnytte AI-systemer.

AI-køreplanen lægger sikkerhedsbyrden på AI-udviklere, ikke AI-forbrugere

Historisk set har AI-softwareproducenter modstået byggeprodukter, der er designsikre, hvilket lægger byrden af ​​sikkerhed på AI-forbrugere. CISA AI-køreplanen påbyder, at AI-systemproducenter anvender sikre gennem design-principper gennem hele udviklingens livscyklus. Dette inkluderer at gøre sikker ved design til en topprioritet for virksomheden, tage ejerskab over sikkerhedsresultater for kunder og lede produktudvikling med radikal gennemsigtighed og ansvarlighed.

CISA planlægger at implementere fem indsatslinjer for at nå sine erklærede mål

CISA har identificeret fem indsatslinjer for at forene og fremskynde ovenstående køreplan:

  • Ansvarlig brug af AI: CISA har til hensigt at implementere AI-aktiverede softwareværktøjer for at styrke cyberforsvar og understøtte kritisk infrastruktur. Alle systemer og værktøjer vil gennemgå en streng udvælgelsesproces, hvor CISA vil sikre, at AI-relaterede systemer er ansvarlige, sikre, etiske og sikre at bruge. CISA vil også implementere robuste styringsprocesser, der ikke kun vil være i overensstemmelse med føderale indkøbsprocesser, gældende love og politikker, privatlivets fred og borgerlige rettigheder og frihedsrettigheder, men også vedtage en tilgang til løbende vurdering af AI-modeller, mens IT-sikkerhedspraksis gennemgås for sikker integration. teknologien.

  • Forsikre AI-systemer: For at bygge mere sikker og modstandsdygtig AI-softwareudvikling og -implementering planlægger CISA at kæmpe for sikker-by-design initiativer, udvikle bedste sikkerhedspraksis og vejledning for en bred vifte af interessenter (f.eks. føderale civile regeringsagenturer, virksomheder i den private sektor, statslige, lokale, stamme- og territoriale regeringer) og drive indførelse af stærke metoder til håndtering af sårbarhed, som specificerer en proces for afsløring af sårbarhed og give vejledning til sikkerhedstest og red teaming-øvelser til AI-systemer.

  • Beskyt kritisk infrastruktur mod ondsindet brug af kunstig intelligens: CISA vil samarbejde med offentlige myndigheder og industripartnere som f.eks Joint Cyber ​​Defense Collaborative at udvikle, teste og evaluere AI-værktøjer og samarbejde om udvikling AI trusler. CISA vil udgive materiale for at øge bevidstheden om nye risici og vil også evaluere risikostyringsmetoder for at bestemme den passende analytiske ramme for vurdering og behandling af AI-risici.

  • Samarbejd med interagenturer, internationale partnere og offentligheden: For at øge bevidstheden, dele trusselsinformation og forbedre hændelsesrespons og efterforskningsevner planlægger CISA at fremme samarbejdstilgange såsom AI-arbejdsgrupper, deltagelse i eller deltagelse i møder mellem myndigheder og tæt koordinering med Department of Homeland Security-enheder. CISA vil arbejde på tværs af tværagenturer for at sikre, at dets politikker og strategier stemmer overens med hele regeringen tilgang og vil engagere internationale partnere til at tilskynde til vedtagelse af international bedste praksis for sikker AI.

  • Udvid AI-ekspertise i arbejdsstyrken: Human årvågenhed, overvågning og intuition er altid nødvendig for at opdage AI- og ikke-AI-baserede cybertrusler og for at sikre, at AI-systemer er fri for fejl, skævheder og manipulation. Menneskelig intuition og årvågenhed kan kun styrkes med robuste sikkerhedsbevidsthedsinitiativer. Det er derfor, CISA planlægger løbende at uddanne arbejdsstyrken i AI-softwaresystemer og -teknikker, rekruttere medarbejdere med AI-ekspertise og gennemføre sikkerhedsbevidsthedstræningsprogrammer, der bør omfatte situationsbestemte øvelser for at sikre, at medarbejderne forstår de juridiske, etiske og politiske aspekter af AI-baseret systemer, ud over de tekniske aspekter. 

Gennem de initiativer, der er skitseret i CISA-køreplanen, håber agenturet at opbygge en mere robust cybersikkerhedsposition for nationen, beskytte kritisk infrastruktur mod ondsindet brug af AI og prioritere sikkerhed som et kerneforretningskrav i AI-baserede værktøjer og systemer.

Tidsstempel:

Mere fra Mørk læsning