A CISA útiterve: A megbízható mesterségesintelligencia-fejlesztés irányvonalának felvázolása

A CISA útiterve: A megbízható mesterségesintelligencia-fejlesztés irányvonalának felvázolása

A CISA útiterve: A megbízható mesterséges intelligencia fejlesztésének útja a PlatoBlockchain adatintelligenciához. Függőleges keresés. Ai.

KOMMENTÁR
A mesterséges intelligencia technológia gyors elterjedése komoly számítógépes aggodalmakat váltott ki a mesterséges intelligencia szakértőiben, a döntéshozókban, a technológiai iparág titánjaiban, a nemzetekben és a világ vezetőiben. Válaszul a Kiberbiztonsági és Infrastruktúra Ügynökség (CISA) nyilvánosságra hozta 2023–2024 „CISA ütemterv a mesterséges intelligenciához”, azzal a céllal, hogy az AI biztonságos és megbízható fejlesztését és felhasználását hozzuk létre, amint azt az utasította A Fehér Ház 14110-as végrehajtási rendelete.

A CISA kiadtaStratégiai terv” 2023–2025 közötti időszakra azzal a küldetéssel, hogy biztonságos és rugalmas infrastruktúrát biztosítson az amerikai közönség számára. Az AI ütemterv a stratégiai tervben kiemelt négy cél adaptációja:

  • Kibervédelem: Míg a mesterséges intelligencia rendszerek segíthetnek a szervezeteknek a feltörekvő és a fejlett kiberfenyegetésekkel szembeni védekezés javításában, az AI-alapú szoftverrendszerek kockázatok száma amelyekhez robusztusra van szükség AI védelem. Az ütemterv célja, hogy elősegítse a mesterséges intelligencia jótékony használatát, és egyúttal megvédje az ország rendszereit a mesterséges intelligencia-alapú fenyegetésektől.

  • Kockázatcsökkentés és rugalmasság: Kritikus infrastruktúra a szervezetek egyre gyakrabban használnak mesterséges intelligencia rendszereket saját kiberellenállásuk fenntartására és megerősítésére. Útitervével a CISA célja, hogy elősegítse az AI-alapú szoftverrendszerek felelős és kockázattudatos átvételét.kialakítással biztos” – ahol a biztonságot a termék fejlesztési életciklusának tervezési szakaszában valósítják meg, hogy a kihasználható hibákat a forrásnál csökkenteni lehessen.

  • Operatív együttműködés: A mesterséges intelligencia technológia terjedésével az Egyesült Államok polgárai és a kritikus infrastrukturális szektorok célzott fenyegetéseknek lehetnek kitéve, amelyek információmegosztást és összehangolt válaszokat igényelhetnek a szervezetektől, a bűnüldöző szervektől és a nemzetközi partnerektől. A CISA egy olyan keretrendszer kidolgozását tervezi, amely elősegíti az érintett felek közötti összehangolást és koordinációt.

  • Ügynökség egyesítése: A CISA célja az AI szoftverrendszerek egységesítése és integrálása az ügynökségen belül, ami segíti az AI-rendszerek koherensebb használatát. A CISA emellett olyan munkaerő toborzását és fejlesztését is tervezi, amely képes optimálisan kihasználni az AI-rendszereket.

Az AI ütemterv a biztonsági terhet a mesterségesintelligencia-fejlesztőkre, nem pedig az AI-fogyasztókra helyezi

Történelmileg az AI-szoftvergyártók ellenálltak olyan termékek megépítésének, amelyek tervezésüknél fogva biztonságosak, így a biztonság terhét az AI-fogyasztókra hárították. A CISA mesterséges intelligencia ütemterve előírja, hogy az AI-rendszerek gyártói alkalmazzák a biztonságos tervezési elveket a teljes fejlesztési életciklus során. Ebbe beletartozik, hogy a tervezési biztonságot kiemelt üzleti prioritássá kell tenni, a biztonsági eredményeket az ügyfelek kezébe kell venni, valamint a termékfejlesztést radikális átláthatóság és elszámoltathatóság mellett vezetni.

A CISA öt erőfeszítést tervez megvalósítani a kitűzött céljainak elérése érdekében

A CISA öt erőfeszítést határozott meg a fenti ütemterv egységesítése és felgyorsítása érdekében:

  • Az AI felelősségteljes használata: A CISA mesterséges intelligencia-kompatibilis szoftvereszközöket kíván bevetni a kibervédelem megerősítésére és a kritikus infrastruktúra támogatására. Minden rendszer és eszköz szigorú kiválasztási folyamaton megy keresztül, ahol a CISA biztosítja, hogy az AI-val kapcsolatos rendszerek felelősek, biztonságosak, etikusak és biztonságosak legyenek. A CISA robusztus irányítási folyamatokat is bevet, amelyek nemcsak a szövetségi beszerzési folyamatokkal, az alkalmazandó törvényekkel és irányelvekkel, a magánélet védelmével, valamint a polgári jogokkal és szabadságjogokkal lesznek összhangban, hanem a mesterséges intelligencia-modellek folyamatos értékelésére irányuló megközelítést is alkalmaznak, miközben felülvizsgálják az IT biztonsági gyakorlatokat a biztonságos integráció érdekében. a technológia.

  • Biztosítsuk az AI-rendszereket: A biztonságosabb és rugalmasabb mesterségesintelligencia-szoftverek fejlesztése és megvalósítása érdekében a CISA bajnokot tervez biztonságos tervezés kezdeményezések, biztonsági bevált gyakorlatok és útmutatások kidolgozása az érdekelt felek széles köre számára (pl. szövetségi polgári kormányzati szervek, magánszektorbeli vállalatok, állami, helyi, törzsi és területi kormányzatok), valamint erős sebezhetőség-kezelési gyakorlatok elfogadásának ösztönzése, meghatározva a sebezhetőség feltárási folyamatát. valamint útmutatást ad a mesterséges intelligencia rendszerek biztonsági teszteléséhez és a red teaming gyakorlatokhoz.

  • A kritikus infrastruktúra védelme a mesterséges intelligencia rosszindulatú használatától: A CISA olyan kormányzati szervekkel és iparági partnerekkel fog együttműködni, mint a Közös Kibervédelmi Együttműködés mesterséges intelligencia eszközök fejlesztésére, tesztelésére és értékelésére, valamint együttműködésre a fejlesztésben AI fenyegetések. A CISA anyagokat tesz közzé, hogy felhívja a figyelmet a felmerülő kockázatokra, és értékeli a kockázatkezelési módszereket is, hogy meghatározza a megfelelő elemzési keretet az MI-kockázatok értékeléséhez és kezeléséhez.

  • Együttműködés az ügynökségekkel, nemzetközi partnerekkel és a nyilvánossággal: A figyelem felkeltése, a fenyegetéssel kapcsolatos információk megosztása, valamint az incidensekre adott válaszadási és nyomozási képességek javítása érdekében a CISA olyan együttműködési megközelítések előmozdítását tervezi, mint például az AI-munkacsoportok, az ügynökségek közötti megbeszéléseken való részvétel vagy azokon való részvétel, valamint a Belbiztonsági Minisztérium szervezeteivel való szoros együttműködés. A CISA az ügynökségközi szinten fog dolgozni annak biztosítása érdekében, hogy politikái és stratégiái összhangban legyenek az ügynökségekkel egész kormány megközelítést, és bevonja a nemzetközi partnereket a biztonságos mesterséges intelligencia terén bevált nemzetközi gyakorlatok átvételének ösztönzésére.

  • Az AI-szakértelem bővítése a munkaerőben: Emberi éberségre, felügyeletre és intuícióra mindig szükség van a mesterséges intelligencia és a nem AI-alapú kiberfenyegetések észleléséhez, valamint annak biztosításához, hogy az AI-rendszerek mentesek legyenek a hibáktól, torzításoktól és manipulációtól. Az emberi intuíció és az éberség csak erőteljes biztonsági tudatosítási kezdeményezésekkel erősíthető. Ez az oka annak, hogy a CISA azt tervezi, hogy folyamatosan oktatja a munkaerőt a mesterséges intelligencia szoftverrendszereire és technikáira, AI-szakértelemmel rendelkező alkalmazottakat toboroz, és biztonsági tudatosságnövelő képzési programokat tart, amelyeknek szituációs gyakorlatokat is magukban kell foglalniuk, hogy az alkalmazottak megértsék az AI-alapú jogi, etikai és szakpolitikai szempontokat. a műszaki szempontokon túl. 

A CISA ütemtervében körvonalazott kezdeményezések révén az ügynökség azt reméli, hogy szilárdabb kiberbiztonsági pozíciót építhet ki a nemzet számára, megvédheti a kritikus infrastruktúrát a mesterséges intelligencia rosszindulatú használatától, és a biztonságot az AI-alapú eszközök és rendszerek alapvető üzleti követelményeként kezeli.

Időbélyeg:

Még több Sötét olvasmány