CISAs veikart: Kartlegging av en kurs for pålitelig AI-utvikling

CISAs veikart: Kartlegge et kurs for pålitelig AI-utvikling

CISAs veikart: Kartlegge et kurs for pålitelig AI-utvikling PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

KOMMENTAR
Rask bruk av kunstig intelligens-teknologi har utløst alvorlige cyberbekymringer blant AI-eksperter, politikere, titaner i teknologiindustrien, nasjoner og verdensledere. Som svar avduket Cybersecurity and Infrastructure Agency (CISA) sin 2023–2024 "CISA Roadmap for Artificial Intelligence," med sikte på å skape sikker og pålitelig utvikling og bruk av AI, som anvist av Executive Order 14110 i Det hvite hus.

CISA ga ut sin "Strategisk plan» for 2023–2025 med oppdraget å levere en sikker og spenstig infrastruktur for den amerikanske offentligheten. AI-veikartet er en tilpasning av de samme fire målene som er fremhevet i den strategiske planen:

  • Cyberforsvar: Mens AI-systemer kan hjelpe organisasjoner med å forbedre deres forsvar mot nye så vel som avanserte cybertrusler, utgjør AI-baserte programvaresystemer en antall risikoer som krever en robust AI forsvar. Veikartet har som mål å fremme fordelaktig bruk av AI og samtidig beskytte nasjonens systemer mot AI-baserte trusler.

  • Risikoreduksjon og motstandskraft: Kritisk infrastruktur organisasjoner bruker i økende grad AI-systemer for å opprettholde og styrke sin egen cyberresiliens. Med sitt veikart har CISA som mål å fremme en ansvarlig og risikobevisst bruk av AI-baserte programvaresystemer som er "sikker av design” — hvor sikkerhet implementeres i designfasen av et produkts utviklingslivssyklus, slik at utnyttbare feil kan reduseres ved kilden.

  • Operativt samarbeid: Ettersom AI-teknologi sprer seg, kan amerikanske borgere og kritiske infrastruktursektorer bli utsatt for målrettede trusler, som kan kreve informasjonsdeling og koordinerte svar fra organisasjoner, rettshåndhevelsesbyråer og internasjonale partnere. CISA planlegger å utvikle et rammeverk som bidrar til å forbedre justering og koordinering på tvers av relevante interessenter.

  • Byråforening: CISA har som mål å forene og integrere AI-programvaresystemer på tvers av byrået, noe som vil hjelpe det å bruke AI-systemer mer sammenhengende. CISA planlegger også å rekruttere og utvikle en arbeidsstyrke som er i stand til å utnytte AI-systemer optimalt.

AI-veikartet legger sikkerhetsbyrden på AI-utviklere, ikke AI-forbrukere

Historisk sett har produsenter av AI-programvare motstått å bygge produkter som er sikre ved design, noe som legger byrden med sikkerhet på AI-forbrukere. CISA AI-veikartet krever at produsenter av AI-system tar i bruk sikre prinsipper gjennom hele utviklingslivssyklusen. Dette inkluderer å gjøre sikker ved design til en topp forretningsprioritet, å ta eierskap til sikkerhetsresultater for kunder og lede produktutvikling med radikal åpenhet og ansvarlighet.

CISA planlegger å implementere fem innsatslinjer for å nå sine uttalte mål

CISA har identifisert fem innsatslinjer for å forene og akselerere veikartet ovenfor:

  • Ansvarlig bruk av AI: CISA har til hensikt å distribuere AI-aktiverte programvareverktøy for å styrke cyberforsvar og støtte kritisk infrastruktur. Alle systemer og verktøy vil gå gjennom en streng utvelgelsesprosess der CISA vil sikre at AI-relaterte systemer er ansvarlige, sikre, etiske og trygge å bruke. CISA vil også implementere robuste styringsprosesser som ikke bare vil være i samsvar med føderale anskaffelsesprosesser, gjeldende lover og retningslinjer, personvern og sivile rettigheter og friheter, men også ta i bruk en tilnærming for kontinuerlig vurdering av AI-modeller samtidig som IT-sikkerhetspraksis vurderes for sikker integrering. teknologien.

  • Forsikre AI-systemer: For å bygge sikrere og mer robust AI-programvareutvikling og -implementering, planlegger CISA å kjempe sikker-for-design initiativer, utvikle beste praksis og veiledning for sikkerhet for et bredt spekter av interessenter (f.eks. føderale sivile myndighetsorganer, bedrifter i privat sektor, statlige, lokale, stamme- og territorielle myndigheter) og drive innføring av sterke praksiser for sårbarhetshåndtering, spesifisere en prosess for avsløring av sårbarhet og gi veiledning for sikkerhetstesting og red teaming-øvelser for AI-systemer.

  • Beskytt kritisk infrastruktur mot ondsinnet bruk av AI: CISA vil samarbeide med offentlige etater og industripartnere som f.eks Felles Cyber ​​Defense Collaborative å utvikle, teste og evaluere AI-verktøy og samarbeide om utvikling AI-trusler. CISA vil publisere materiale for å øke bevisstheten om nye risikoer og vil også evaluere risikostyringsmetoder for å bestemme det passende analytiske rammeverket for vurdering og behandling av AI-risiko.

  • Samarbeid med tverrbyråer, internasjonale partnere og publikum: For å øke bevisstheten, for å dele trusselinformasjon og for å forbedre hendelsesrespons og etterforskningsevner, planlegger CISA å fremme samarbeidstilnærminger som AI-arbeidsgrupper, delta på eller delta i møter på tvers av byråer, og tett koordinering med Department of Homeland Security-enheter. CISA vil jobbe på tvers av tverrbyråene for å sikre at deres retningslinjer og strategier stemmer overens med hele myndigheten tilnærming og vil engasjere internasjonale partnere for å oppmuntre til å ta internasjonal beste praksis for sikker AI.

  • Utvid AI-ekspertise i arbeidsstyrken: Menneskelig årvåkenhet, tilsyn og intuisjon er alltid nødvendig for å oppdage AI- og ikke-AI-baserte cybertrusler og for å sikre at AI-systemer er fri for feil, skjevheter og manipulasjon. Menneskelig intuisjon og årvåkenhet kan bare styrkes med robuste sikkerhetsbevissthetsinitiativer. Dette er grunnen til at CISA planlegger å kontinuerlig utdanne arbeidsstyrken i AI-programvaresystemer og -teknikker, rekruttere ansatte med AI-ekspertise og gjennomføre opplæringsprogrammer for sikkerhetsbevissthet som bør inkludere situasjonelle øvelser for å sikre at ansatte forstår de juridiske, etiske og politiske aspektene ved AI-basert systemer, utover de tekniske aspektene. 

Gjennom initiativene som er skissert i CISA-veikartet, håper byrået å bygge en mer robust cybersikkerhetsstilling for nasjonen, beskytte kritisk infrastruktur mot ondsinnet bruk av AI, og prioritere sikkerhet som et kjernevirksomhetskrav i AI-baserte verktøy og systemer.

Tidstempel:

Mer fra Mørk lesning