CISA och NCSC leder ansträngningarna för att höja säkerhetsstandarderna för AI

CISA och NCSC leder ansträngningarna för att höja säkerhetsstandarderna för AI

CISA och NCSC leder ansträngningarna för att höja AI-säkerhetsstandarden PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Storbritanniens National Cyber ​​Security Agency (NCSC) och USA:s Cybersecurity and Infrastructure Security Agency (CISA) har publicerat officiell vägledning för att säkra AI-applikationer – ett dokument som byråerna hoppas ska säkerställa att säkerheten är inneboende i AI:s utveckling.

Den brittiska spionbyrån säger att vägledande dokument är den första i sitt slag och stöds av 17 andra länder.

Att köra publicering är den långvariga rädslan för att säkerhet skulle vara en eftertanke då leverantörer av AI-system arbetar för att hänga med i takten i AI-utvecklingen.

Lindy Cameron, VD på NCSC, sa tidigare i år att teknikindustrin har en historia av att lämna säkerhet som en sekundär faktor när takten i den tekniska utvecklingen är hög.

Idag uppmärksammade riktlinjerna för säker AI-systemutveckling igen denna fråga och tillade att AI alltid kommer att utsättas för nya sårbarheter också.

"Vi vet att AI utvecklas i en fenomenal takt och det finns ett behov av samordnade internationella åtgärder, mellan regeringar och industri, för att hänga med", sa Cameron.

"Dessa riktlinjer markerar ett viktigt steg i att forma en verkligt global, gemensam förståelse för cyberriskerna och begränsningsstrategierna kring AI för att säkerställa att säkerhet inte är en eftertext till utveckling utan ett kärnkrav genomgående. 

"Jag är stolt över att NCSC leder avgörande ansträngningar för att höja AI-cybersäkerhetsnivån: ett säkrare globalt cyberutrymme kommer att hjälpa oss alla att på ett säkert och säkert sätt förverkliga denna tekniks underbara möjligheter."

Riktlinjerna antar en säker-by-design och hjälper AI-utvecklare att fatta de mest cybersäkra besluten i alla skeden av utvecklingsprocessen. De kommer att gälla för applikationer som är byggda från grunden och på de som byggs ovanpå befintliga resurser.

Den fullständiga listan över länder som stöder vägledningen, tillsammans med deras respektive cybersäkerhetsbyråer, finns nedan:

  • Australien – Australian Signals Directorate Australian Cyber ​​Security Center (ACSC) 
  • Kanada – Canadian Center for Cyber ​​Security (CCCS) 
  • Chile – Chiles regering CSIRT
  • Tjeckien – Tjeckiens nationella byrå för cyber- och informationssäkerhet (NUKIB)
  • Estland – Estlands informationssystemmyndighet (RIA) och Estlands nationella cybersäkerhetscenter (NCSC-EE)
  • Frankrike – Franska byrån för cybersäkerhet (ANSSI)
  • Tyskland – Tysklands federala kontor för informationssäkerhet (BSI)
  • Israel – Israeliskt nationella cyberdirektorat (INCD)
  • Italien – Italienska nationella byrån för cybersäkerhet (ACN)
  • Japan – Japans nationella centrum för beredskap för incidenter och strategi för cybersäkerhet (NISC; Japans sekretariat för vetenskap, teknologi och innovationspolitik, kabinettskontoret
  • Nya Zeeland – Nya Zeelands nationella cybersäkerhetscenter
  • Nigeria – Nigerias nationella byrå för utveckling av informationsteknik (NITDA)
  • Norge – Norges nationella cybersäkerhetscenter (NCSC-NO)
  • Polen – Polens NASK National Research Institute (NASK)
  • Republiken Korea – Republiken Koreas nationella underrättelsetjänst (NIS)
  • Singapore – Cyber ​​Security Agency of Singapore (CSA)
  • Storbritannien och Nordirland – National Cyber ​​Security Center (NCSC)
  • USA – Cybersecurity and Infrastructure Agency (CISA); National Security Agency (NSA; Federal Bureau of Investigations (FBI)

Riktlinjerna är uppdelade i fyra nyckelfokusområden, var och en med specifika förslag för att förbättra varje steg i AI-utvecklingscykeln.

1. Säker design

Som rubriken antyder säger riktlinjerna att säkerhet bör övervägas redan innan utvecklingen påbörjas. Det första steget är att öka medvetenheten bland personalen om AI-säkerhetsrisker och deras begränsningar. 

Utvecklare bör sedan modellera hoten mot deras system, överväga att framtidssäkra dessa också, som att ta hänsyn till det större antalet säkerhetshot som kommer att komma när tekniken lockar fler användare, och framtida teknisk utveckling som automatiserade attacker.

Säkerhetsbeslut bör också fattas vid varje funktionsbeslut. Om en utvecklare i designfasen är medveten om att AI-komponenter kommer att utlösa vissa åtgärder, måste frågor ställas om hur man bäst säkrar denna process. Till exempel, om AI kommer att modifiera filer, bör nödvändiga skyddsåtgärder läggas till för att begränsa denna förmåga endast till gränserna för applikationens specifika behov.

2. Säker utveckling

Att säkra utvecklingsstadiet inkluderar vägledning om säkerhet i leveranskedjan, underhåll av robust dokumentation, skydd av tillgångar och hantering av tekniska skulder.

Säkerhet i försörjningskedjan har varit en särskild fokuspunkt för försvarare under de senaste åren, med en ström av högprofilerade attacker som lett till ett stort antal offer

Det är viktigt att se till att de leverantörer som används av AI-utvecklare är verifierade och fungerar enligt höga säkerhetsstandarder, liksom att ha planer på plats för när verksamhetskritiska system upplever problem.

3. Säker distribution

Säker distribution innebär att skydda den infrastruktur som används för att stödja ett AI-system, inklusive åtkomstkontroller för API:er, modeller och data. Om en säkerhetsincident skulle uppstå, bör utvecklare också ha respons- och åtgärdsplaner på plats som förutsätter att problem en dag kommer att dyka upp.

Modellens funktionalitet och de data som den utbildats på bör skyddas mot attacker kontinuerligt, och de bör släppas ansvarsfullt, först när de har blivit föremål för noggranna säkerhetsbedömningar. 

AI-system bör också göra det enkelt för användare att vara säkra som standard, där det är möjligt att göra det säkraste alternativet eller konfigurationen till standard för alla användare. Transparens om hur användarnas data används, lagras och nås är också nyckeln.

4. Säker drift och underhåll

Det sista avsnittet tar upp hur man säkrar AI-system efter att de har distribuerats. 

Övervakning är kärnan i mycket av detta, oavsett om det är systemets beteende att spåra förändringar som kan påverka säkerheten, eller vad som matas in i systemet. Att uppfylla integritets- och dataskyddskrav kommer att kräva övervakning och skogsavverkning ingångar för tecken på missbruk. 

Uppdateringar bör också utfärdas automatiskt som standard så att inaktuella eller sårbara versioner inte används. Slutligen, att vara en aktiv deltagare i informationsdelningsgemenskaper kan hjälpa industrin att bygga upp en förståelse för AI-säkerhetshot, vilket ger mer tid för försvarare att utarbeta begränsningar som i sin tur kan begränsa potentiella skadliga utnyttjande. ®

Tidsstämpel:

Mer från Registret