Hogyan nézhet ki az AI chipek biztonságának szabályozása?

Hogyan nézhet ki az AI chipek biztonságának szabályozása?

Mi nézhet ki úgy, mint a PlatoBlockchain adatintelligencia a mesterséges intelligencia chipek szabályozására használt biztonsággal? Függőleges keresés. Ai.

Az OpenAI, a Cambridge-i Egyetem, a Harvard Egyetem és a Torontói Egyetem kutatói „feltáró” lehetőséget kínáltak. ötletek az AI chipek és hardver szabályozására vonatkozóanés hogyan akadályozhatják meg a biztonsági politikák a fejlett AI-val való visszaélést.

Az ajánlások módot adnak a fejlett AI-rendszerek és az azokat tápláló chipek fejlesztésének és használatának mérésére és auditálására. Az irányelvek végrehajtására vonatkozó ajánlások közé tartozik a rendszerek teljesítményének korlátozása és olyan biztonsági funkciók bevezetése, amelyek távolról letilthatják a csaló chipeket.

„A nagy teljesítményű AI-rendszerek betanítása jelenleg több ezer mesterségesintelligencia-chip felhalmozását és összehangolását követeli meg” – írták a kutatók. "[Ha] ezek a rendszerek potenciálisan veszélyesek, akkor ennek a felhalmozott számítási teljesítménynek a korlátozása korlátozhatja a potenciálisan veszélyes mesterséges intelligencia rendszerek előállítását."

Nathan Brookwood, az Insight 64 vezető elemzője szerint a kormányok nagyrészt a szoftverekre összpontosítottak a mesterséges intelligencia politikájában, és a cikk a vita hardveres oldalát is lefedi.

Az ipar azonban nem fogad szívesen semmilyen biztonsági funkciót, amely befolyásolná az AI teljesítményét, figyelmeztet. A mesterséges intelligencia biztonságossá tétele hardveren keresztül „nemes törekvés, de nem látom, hogy egyikük is ezt tenné. A dzsinn kifogyott a lámpából, és sok szerencsét a visszahelyezéshez” – mondja.

A klaszterek közötti kapcsolatok szabályozása

A kutatók egyik javaslata az AI-modellek számítási feldolgozási kapacitásának korlátozása. Az ötlet az, hogy olyan biztonsági intézkedéseket hozzanak életbe, amelyek azonosítani tudják az AI-rendszerekkel való visszaéléseket, valamint a chipek használatának leállítását és korlátozását.

Pontosabban, célzott megközelítést javasolnak a memória és a chip klaszterek közötti sávszélesség korlátozására. A könnyebb alternatíva – a chipekhez való hozzáférés megszakítása – nem volt ideális, mivel befolyásolná az általános mesterséges intelligencia teljesítményét – írták a kutatók.

A lap nem javasolta az ilyen biztonsági korlátok bevezetésének módját, vagy azt, hogy miként lehetne kimutatni az AI-rendszerekkel való visszaéléseket.

"A külső kommunikáció optimális sávszélesség-határának meghatározása olyan terület, amely további kutatást érdemel" - írták a kutatók.

A nagyméretű mesterséges intelligencia rendszerek óriási hálózati sávszélességet igényelnek, és az olyan mesterséges intelligencia rendszerek, mint a Microsoft Eagle és az Nvidia Eos a A világ 10 leggyorsabb szuperszámítógépe. Vannak módok a hálózati teljesítmény korlátozására a P4 programozási nyelvet támogató eszközök esetében, amelyek képesek elemezni a hálózati forgalmat, és újrakonfigurálni az útválasztókat és a kapcsolókat.

De sok sikert, ha arra kéri a chipgyártókat, hogy alkalmazzanak mesterséges intelligencia biztonsági mechanizmusokat, amelyek lelassíthatják a chipeket és a hálózatokat, mondja Brookwood.

„Az Arm, az Intel és az AMD mindannyian elfoglaltak a leggyorsabb és legrosszabb chipek gyártásával, amelyeket meg tudnak építeni, hogy versenyképesek legyenek. Nem tudom, hogyan lehet lassítani” – mondja.

A távoli lehetőségek bizonyos kockázattal járnak

A kutatók a chipek távoli letiltását is javasolták, amit az Intel a legújabb szerverchipekbe épített be. Az On Demand szolgáltatás egy előfizetéses szolgáltatás, amely lehetővé teszi az Intel ügyfelei számára, hogy be- és kikapcsolhassák a chip-szolgáltatásokat, például az AI-bővítményeket, mint pl. fűthető ülések egy Teslában.

A kutatók egy olyan tanúsítási rendszert is javasoltak, amelyben a chipek csak az arra jogosult felek számára teszik lehetővé a mesterséges intelligencia-rendszerekhez való hozzáférést kriptográfiailag aláírt digitális tanúsítványokon keresztül. A firmware útmutatást nyújthat a jogosult felhasználókról és alkalmazásokról, amelyek frissítésekkel módosíthatók.

Bár a kutatók nem adtak technikai ajánlásokat ennek mikéntjére, az ötlet hasonló ahhoz, hogy a bizalmas számítástechnika hogyan védi a chipeken lévő alkalmazásokat a jogosult felhasználók tanúsítása. Intel és a AMD bizalmas számítástechnika van a chipjeiken, de ez még a kezdeti napok a feltörekvő technológia számára.

A házirendek távolról történő betartatása is kockázatokat rejt magában. "A távoli végrehajtási mechanizmusok jelentős árnyoldalakkal járnak, és csak akkor indokolt, ha a mesterséges intelligencia várható kára rendkívül magas" - írták a kutatók.

Brookwood egyetért.

„Még ha tehetné is, lesznek rosszfiúk, akik folytatni fogják. A jó fiúk mesterséges megszorítása hatástalan lesz” – mondja.

Időbélyeg:

Még több Sötét olvasmány