CISA in NCSC vodita prizadevanja za dvig varnostnih standardov umetne inteligence

CISA in NCSC vodita prizadevanja za dvig varnostnih standardov umetne inteligence

CISA in NCSC vodita prizadevanja za dvig varnostnih standardov umetne inteligence PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Nacionalna agencija za kibernetsko varnost Združenega kraljestva (NCSC) in ameriška agencija za kibernetsko varnost in varnost infrastrukture (CISA) sta objavili uradne smernice za varovanje aplikacij umetne inteligence – dokument, za katerega agencije upajo, da bo zagotovil, da je varnost neločljivo povezana z razvojem umetne inteligence.

Britanska vohunska agencija pravi, da vodilni dokument je prvi te vrste in ga podpira 17 drugih držav.

Vožnja objava je dolgotrajni strah, da bi bila varnost pozabljena misel, saj si ponudniki sistemov umetne inteligence prizadevajo slediti tempu razvoja umetne inteligence.

Lindy Cameron, izvršna direktorica NCSC, je v začetku tega leta dejala, da je tehnološka industrija v zgodovini puščala varnost kot drugoten vidik, ko je hitrost tehnološkega razvoja visoka.

Danes so Smernice za varen razvoj sistemov umetne inteligence ponovno opozorile na to vprašanje in dodale, da bo umetna inteligenca vedno izpostavljena tudi novim ranljivostim.

»Vemo, da se umetna inteligenca razvija z neverjetno hitrostjo in obstaja potreba po usklajenem mednarodnem delovanju med vladami in industrijo, da bi temu sledili,« je dejal Cameron.

»Te smernice označujejo pomemben korak pri oblikovanju resnično globalnega, skupnega razumevanja kibernetskih tveganj in strategij ublažitve v zvezi z umetno inteligenco, da zagotovimo, da varnost ni postopka pri razvoju, ampak temeljna zahteva v celotnem besedilu. 

"Ponosen sem, da NCSC vodi ključna prizadevanja za dvig lestvice kibernetske varnosti umetne inteligence: bolj varen globalni kibernetski prostor nam bo vsem pomagal varno in samozavestno uresničiti čudovite priložnosti te tehnologije."

Smernice sprejmejo a varno po zasnovi pristop, ki v idealnem primeru pomaga razvijalcem umetne inteligence sprejemati najbolj kibernetsko varne odločitve v vseh fazah razvojnega procesa. Uporabljali se bodo za aplikacije, zgrajene od začetka, in za tiste, ki so zgrajene na podlagi obstoječih virov.

Celoten seznam držav, ki podpirajo smernice, skupaj z njihovimi agencijami za kibernetsko varnost, je spodaj:

  • Avstralija – Avstralski center za kibernetsko varnost (ACSC) Avstralskega direktorata za signale 
  • Kanada – Kanadski center za kibernetsko varnost (CCCS) 
  • Čile – čilska vladna skupina CSIRT
  • Češka – Češka nacionalna agencija za kibernetsko in informacijsko varnost (NUKIB)
  • Estonija – Organ za informacijski sistem Estonije (RIA) in Nacionalni center za kibernetsko varnost Estonije (NCSC-EE)
  • Francija – Francoska agencija za kibernetsko varnost (ANSSI)
  • Nemčija – Nemški zvezni urad za informacijsko varnost (BSI)
  • Izrael – Izraelski nacionalni kibernetski direktorat (INCD)
  • Italija – Italijanska nacionalna agencija za kibernetsko varnost (ACN)
  • Japonska – Japonski nacionalni center za pripravljenost na incidente in strategijo za kibernetsko varnost (NISC; japonski sekretariat za znanost, tehnologijo in inovacijsko politiko, urad kabineta
  • Nova Zelandija – Novozelandski nacionalni center za kibernetsko varnost
  • Nigerija – Nigerijska nacionalna agencija za razvoj informacijske tehnologije (NITDA)
  • Norveška – Norveški nacionalni center za kibernetsko varnost (NCSC-NO)
  • Poljska – Poljski nacionalni raziskovalni inštitut NASK (NASK)
  • Republika Koreja – Nacionalna obveščevalna služba Republike Koreje (NIS)
  • Singapur – Agencija za kibernetsko varnost Singapurja (CSA)
  • Združeno kraljestvo Velike Britanije in Severne Irske – Nacionalni center za kibernetsko varnost (NCSC)
  • Združene države Amerike – Agencija za kibernetsko varnost in infrastrukturo (CISA); Nacionalna varnostna agencija (NSA; Zvezni preiskovalni urad (FBI)

Smernice so razdeljene na štiri ključna področja, vsako s posebnimi predlogi za izboljšanje vsake stopnje razvojnega cikla umetne inteligence.

1. Varna zasnova

Kot pove naslov, smernice navajajo, da je treba o varnosti razmišljati že pred začetkom razvoja. Prvi korak je ozaveščanje osebja o varnostnih tveganjih umetne inteligence in njihovih ublažitvah. 

Razvijalci bi morali nato modelirati grožnje svojemu sistemu, pri tem pa razmisliti tudi o tem, da bi jih lahko zaščitili v prihodnosti, na primer upoštevanje večjega števila varnostnih groženj, ki se bodo pojavile, ko bo tehnologija pritegnila več uporabnikov, in prihodnji tehnološki razvoj, kot so avtomatizirani napadi.

Z vsako odločitvijo o funkcionalnosti je treba sprejeti tudi varnostne odločitve. Če se razvijalec v fazi načrtovanja zaveda, da bodo komponente umetne inteligence sprožile določena dejanja, se je treba vprašati, kako najbolje zavarovati ta proces. Na primer, če bo AI spreminjal datoteke, je treba dodati potrebne zaščitne ukrepe za omejitev te zmožnosti samo na meje posebnih potreb aplikacije.

2. Varen razvoj

Zavarovanje razvojne stopnje vključuje smernice glede varnosti dobavne verige, vzdrževanje robustne dokumentacije, zaščito sredstev in upravljanje tehničnega dolga.

Varnost dobavne verige je bila v zadnjih nekaj letih posebna pozornost zagovornikov, saj je vrsta odmevnih napadov privedla do ogromno število žrtev

Zagotavljanje, da so prodajalci, ki jih uporabljajo razvijalci umetne inteligence, preverjeni in delujejo v skladu z visokimi varnostnimi standardi, je pomembno, prav tako pa je pomembno imeti vzpostavljene načrte, ko pride do težav s kritičnimi sistemi.

3. Varna namestitev

Varna uvedba vključuje zaščito infrastrukture, ki se uporablja za podporo sistema AI, vključno z nadzorom dostopa za API-je, modele in podatke. Če bi se varnostni incident pokazal, bi morali razvijalci imeti pripravljene tudi odzivne in sanacijske načrte, ki predpostavljajo, da se bodo težave nekega dne pojavile.

Funkcionalnost modela in podatke, na podlagi katerih se je učil, je treba nenehno varovati pred napadi, odgovorno pa jih je treba izdati šele, ko so podvrženi temeljitim varnostnim ocenam. 

Sistemi umetne inteligence bi morali tudi uporabnikom olajšati privzeto varnost, pri čemer najvarnejša možnost ali konfiguracija, kjer je to mogoče, postane privzeta za vse uporabnike. Ključna je tudi preglednost glede uporabe, shranjevanja in dostopa do podatkov uporabnikov.

4. Varno delovanje in vzdrževanje

Zadnji razdelek pokriva, kako zavarovati sisteme AI po njihovi uvedbi. 

Spremljanje je v središču večine tega, ne glede na to, ali gre za vedenje sistema za sledenje spremembam, ki lahko vplivajo na varnost, ali kaj je vneseno v sistem. Izpolnjevanje zahtev glede zasebnosti in varstva podatkov bo zahtevalo spremljanje in sečnja vnose za znake zlorabe. 

Posodobitve bi morale biti tudi privzeto izdane samodejno, tako da zastarele ali ranljive različice niso v uporabi. Nazadnje, aktivno sodelovanje v skupnostih za izmenjavo informacij lahko industriji pomaga pri razumevanju varnostnih groženj umetne inteligence, kar nudi več časa za zagovornike, da oblikujejo ublažitve, kar bi lahko omejilo morebitno zlonamerno izkoriščanje. ®

Časovni žig:

Več od Register