A kijavítatlan kritikus sérülékenységek átvehetik az AI-modelleket

A kijavítatlan kritikus sérülékenységek átvehetik az AI-modelleket

A kijavítatlan kritikus biztonsági rések megnyitják az AI-modelleket a PlatoBlockchain adatintelligencia átvételéhez. Függőleges keresés. Ai.

A kutatók közel egy tucat kritikus sérülékenységet azonosítottak az AI-modellek által használt infrastruktúrában (plusz három nagy és két közepes súlyosságú hiba), amelyek veszélybe sodorhatják a vállalatokat, amikor versenyeznek az MI előnyeinek kihasználása érdekében. Némelyikük foltozatlan marad.

Az érintett platformokat nagy nyelvi modellek (LLM), valamint más ML-platformok és AI-k tárolására, telepítésére és megosztására használják. Ide tartozik a gépi tanulási modellek elosztott képzésében használt Ray; MLflow, egy gépi tanulási életciklus platform; ModelDB, egy gépi tanulás menedzsment platform; és H20 3-as verzió, egy nyílt forráskódú platform a Java alapú gépi tanuláshoz.

MAz achine-learning biztonsági cég, a Protect AI november 16-án hozta nyilvánosságra az eredményeket a mesterségesintelligencia-specifikus hibajavító programja, a Huntr részeként. Ez nemértesítette a szoftverkarbantartókat és -szállítókat a biztonsági résekről, így 45 napot kapott a problémák javítására.

Mindegyik problémához CVE azonosítót rendeltek, és bár sok hibát kijavítottak, mások nem javítottak, ebben az esetben a Protect AI megoldást javasolt annak tanácsadója.

Az AI hibák nagy kockázatot jelentenek a szervezetek számára

A Protect AI szerint a mesterséges intelligencia rendszerek sérülékenységei jogosulatlan hozzáférést biztosíthatnak a támadóknak az AI-modellekhez, lehetővé téve számukra, hogy a modelleket saját céljaik érdekében kooptáljanak.

De a hálózat többi részébe is bejuthatnak, mondja Sean Morgan, a Protect AI főépítésze. A szerverek feltörése és az alacsony kódszámú AI-szolgáltatásokból származó hitelesítő adatok ellopása például két lehetőség a kezdeti hozzáférésre.

„A következtetéskiszolgálók rendelkezhetnek elérhető végpontokkal a felhasználók számára, hogy [távolról] tudják használni az ML-modelleket, de sokféleképpen be lehet jutni valaki hálózatába” – mondja. „Ezek az ML rendszerek, amelyeket megcélozunk [a bug-bounty programmal], gyakran magasabb jogosultságokkal rendelkeznek, ezért nagyon fontos, hogy ha valaki be tud jutni a hálózatába, akkor ne tudjon gyorsan kiváltságokat szerezni egy nagyon érzékeny rendszerré. .”

Például egy kritikus helyi fájlbefoglalási probléma (most javítva) a Ray elosztott tanulási platform API-jában lehetővé teszi a támadó számára, hogy a rendszer bármely fájlját elolvassa. A H20 platform másik problémája (szintén javítva) lehetővé teszi a kód végrehajtását egy AI-modell importálásával.

A kockázat nem elméleti: a nagyvállalatok már elkezdtek agresszív kampányokat, hogy hasznos mesterséges intelligencia modelleket találjanak, és alkalmazzák azokat piacaikon és működésükön. A bankok már most is használják a gépi tanulást és a mesterséges intelligenciát például jelzáloghitel-feldolgozásra és pénzmosás elleni küzdelemre.

Miközben megtalálja sérülékenységek ezekben az AI-rendszerekben Az infrastruktúra kompromittálásához vezethet, a szellemi tulajdon eltulajdonítása is nagy cél – mondja Daryan Dehghanpisheh, a Protect AI elnöke és társalapítója.

„Az ipari kémkedés nagy szerepet játszik, és az AI-ért és az ML-ért folytatott harcban a modellek nagyon értékes szellemi tulajdont jelentenek” – mondja. „Gondoljon bele, mennyi pénzt költenek napi szinten egy modell képzésére, és ha egymilliárd paraméterről beszélünk, és még sok másról, tehát rengeteg befektetésről, pusztán tiszta tőkéről, amely könnyen kompromittálható vagy ellopható.”

Dane Sherrets, a HackerOne vezető megoldástervezője szerint a mesterséges intelligenciarendszerekkel, például a ChatGPT-vel folytatott természetes nyelvű interakciókat megalapozó infrastruktúra elleni újszerű kizsákmányolások elleni küzdelem még nagyobb hatással lesz. Ennek az az oka, hogy amikor a kiberbűnözők képesek ilyen típusú sebezhetőséget előidézni, az AI-rendszerek hatékonysága sokkal nagyobb hatást fog gyakorolni.

Ezek a támadások „kényes vagy bizalmas adatokat köphetnek ki a rendszerből, vagy elősegíthetik, hogy a rosszindulatú szereplő hozzáférjen a rendszer háttérrendszeréhez” – mondja. „A mesterséges intelligencia sebezhetőségeinek, például a képzési adatok mérgezésének is jelentős hullámzási hatásai lehetnek, ami a hibás vagy rosszindulatú kimenetek széles körű elterjedéséhez vezethet.”

Az AI-infrastruktúra biztonsága: gyakran figyelmen kívül hagyják

A ChatGPT egy évvel ezelőtti bevezetését követően a mesterséges intelligencia alapú technológiák és szolgáltatások – különösen a generatív AI (GenAI) – elindultak. Nyomában a különféle ellenséges támadások fejlesztettek ki, amelyek megcélozhatják az AI-t és a gépi tanulási rendszereket és azok működését. November 15-én például az AI biztonsági cég, az Adversa AI
számos GPT-alapú rendszerek elleni támadást hozott nyilvánosságra beleértve a gyors kiszivárogtatást és azon API-k felsorolását, amelyekhez a rendszer hozzáfér.

A ProtectAI hibaleírásai azonban rávilágítanak arra a tényre, hogy a gépi tanulási folyamatokat és az AI-műveleteket támogató eszközök és infrastruktúra is célponttá válhat. És gyakran a vállalkozások mesterséges intelligencia-alapú eszközöket és munkafolyamatokat alkalmaznak anélkül, hogy gyakran konzultálnának információbiztonsági csoportokkal.

„Mint minden high-tech hype ciklusban, az emberek rendszereket telepítenek, alkalmazásokat adnak ki, és új tapasztalatokat hoznak létre, hogy megfeleljenek az üzlet és a piac igényeinek, és gyakran vagy figyelmen kívül hagyják a biztonságot, és létrehozzák ezeket. „árnyékveremek”, vagy azt feltételezik, hogy a meglévő biztonsági képességeik biztonságban tudják őket tartani” – mondja Dehghanpisheh. „De az, amit mi [kiberbiztonsági szakemberek] teszünk a hagyományos adatközpontok számára, nem feltétlenül biztosítják a biztonságot a felhőben, és fordítva.”

A Protect AI a Huntr névre keresztelt hibajavító platformját használta arra, hogy kutatók ezreitől kérjen sebezhetőségi beadványokat különböző gépi tanulási platformokhoz, de ez idáig a hibakeresés ebben a szektorban még gyerekcipőben jár. Ez azonban hamarosan megváltozhat.

Például a Trend Micro Zero Day Initiative nevű kezdeményezése még nem tapasztalt jelentős keresletet az AI/ML-eszközök hibáinak feltárására, de a csoport rendszeres változást tapasztalt abban, hogy az ipar milyen típusú sebezhetőségeket keres a kutatók számára, és valószínűleg az AI-központúság várható. hamarosan – mondja Dustin Childs, a Trend Micro Zero Day Initiative fenyegetések tudatosítási részlegének vezetője.

„Ugyanazt látjuk a mesterséges intelligencia terén, mint más iparágakban, ahogy fejlődtek” – mondja. „Eleinte a biztonságot nem helyezték előtérbe a funkcionalitás bővítése érdekében. Most, hogy elért egy bizonyos elfogadási szintet, az emberek elkezdik kérdezni a biztonsági vonatkozásairól.”

Időbélyeg:

Még több Sötét olvasmány