A kritikus hibák a Hugging Face AI-platformot „pácba” helyezik

A kritikus hibák a Hugging Face AI-platformot „pácba” helyezik

A kritikus hibák a Hugging Face AI-platformot a „Pickle” PlatoBlockchain adatintelligenciába helyezik. Függőleges keresés. Ai.

A Hugging Face AI platform két kritikus biztonsági rése megnyitotta az ajtót a támadók előtt, akik hozzá akartak férni az ügyfelek adataihoz és modelljeihez, illetve megváltoztatták azokat.

Az egyik biztonsági gyengeség lehetőséget adott a támadóknak, hogy hozzáférjenek a Hugging Face platform más ügyfeleihez tartozó gépi tanulási (ML) modellekhez, a második pedig lehetővé tette számukra, hogy felülírják az összes képet egy megosztott konténer-nyilvántartásban. A Wiz kutatói által felfedezett mindkét hiba a támadók azon képességével kapcsolatos, hogy átvegyék a Hugging Face következtetési infrastruktúrájának egy részét.

A Wiz kutatói három konkrét komponensben találtak gyengeségeket: Hugging Face's Inference API, amely lehetővé teszi a felhasználók számára a platformon elérhető modellek böngészését és interakcióját; Hugging Face Inference Endpoints – vagy dedikált infrastruktúra a mesterséges intelligencia modellek termelésbe helyezéséhez; és a Hugging Face Spaces, egy tárhelyszolgáltatás az AI/ML alkalmazások bemutatására vagy a modellfejlesztésen való együttműködésre.

Probléma a savanyúsággal

A Hugging Face infrastruktúrájának és az általuk felfedezett hibák fegyveresítésének módjait vizsgálva a Wiz kutatói azt találták, hogy bárki könnyedén feltölthet AI/ML modellt a platformra, beleértve a Pickle formátumon alapulókat is. Savanyú uborka egy széles körben használt modul Python objektumok fájlban való tárolására. Bár még maga a Python szoftveralap is bizonytalannak ítélte a Pickle-t, továbbra is népszerű, mivel könnyen használható, és az emberek ismerik.

"Viszonylag egyszerű egy olyan PyTorch (Pickle) modell elkészítése, amely tetszőleges kódot hajt végre betöltéskor" - mondja Wiz.

A Wiz kutatói kihasználták azt a lehetőséget, hogy egy privát Pickle-alapú modellt töltsenek fel a Hugging Face-re, amely betöltéskor fordított héjat futtat. Ezután az Inference API segítségével interakcióba léptek vele, hogy héjszerű funkcionalitást érjenek el, amelyet a kutatók arra használtak, hogy felfedezzék környezetüket a Hugging Face infrastruktúráján.

Ez a gyakorlat gyorsan megmutatta a kutatóknak, hogy modelljük az Amazon Elastic Kubernetes Service (EKS) egyik klaszterében fut. Innen a kutatók képesek voltak kihasználni a gyakori hibás konfigurációkat, hogy olyan információkat nyerjenek ki, amelyek lehetővé tették számukra, hogy megszerezzék a titkok megtekintéséhez szükséges jogosultságokat, amelyek lehetővé tették számukra a megosztott infrastruktúra más bérlőinek elérését.

A Hugging Face Spaces segítségével a Wiz azt találta, hogy egy támadó tetszőleges kódot futtathat az alkalmazás felépítésének ideje alatt, amely lehetővé teszi számára, hogy megvizsgálja a hálózati kapcsolatokat a számítógépéről. Áttekintésük egy kapcsolatot mutatott ki egy olyan megosztott tároló-nyilvántartással, amely más ügyfelekhez tartozó képeket tartalmazott, és amelyeket ők manipulálhattak volna.

"Rossz kezekben a belső konténer-nyilvántartásba való írás képessége jelentős hatással lehet a platform integritására, és ellátási lánc támadásokhoz vezethet az ügyfelek terei ellen" - mondta Wiz.

– mondta átölelő Arc teljesen csökkentette a Wiz által felfedezett kockázatokat. A vállalat időközben megállapította, hogy a problémák legalább részben azzal a döntéssel kapcsolatosak, hogy továbbra is engedélyezi a Pickle fájlok használatát a Hugging Face platformon, az ilyen fájlokhoz kapcsolódó, fent említett, jól dokumentált biztonsági kockázatok ellenére.  

„A pácolt reszelők a Wiz által végzett kutatások nagy részének és a biztonsági kutatók által a Hugging Face-ről szóló újabb publikációknak a középpontjában állnak” – jegyezte meg a vállalat. A Pickle használatának engedélyezése a Hugging Face-en „teher a mérnöki és biztonsági csapataink számára, és jelentős erőfeszítéseket tettünk a kockázatok csökkentése érdekében, miközben lehetővé tesszük a mesterséges intelligencia közössége számára az általuk választott eszközök használatát”.

Újonnan felmerülő kockázatok az AI-as-a-Service kapcsán

Wiz leírta a felfedezését jelzi azokat a kockázatokat, amelyekkel a szervezeteknek tisztában kell lenniük, amikor megosztott infrastruktúrát használnak új AI-modellek és -alkalmazások hosztolására, futtatására és fejlesztésére, amely „AI-as-a-service” néven vált ismertté. A vállalat a kockázatokat és a kapcsolódó mérsékléseket azokhoz hasonlította, amelyekkel a szervezetek a nyilvános felhőkörnyezetekben találkoznak, és azt javasolta, hogy ugyanezeket a mérsékléseket alkalmazzák az AI-környezetekben is.

"A szervezeteknek biztosítaniuk kell, hogy a teljes használt mesterséges intelligencia-csomag láthatóságát és irányítását biztosítsák, és gondosan elemezniük kell az összes kockázatot" - mondta Wiz egy e heti blogban. Ez magában foglalja a „használatának elemzését rosszindulatú modellek, edzési adatok expozíciója, érzékeny adatok edzés közben, réseket az AI SDK-kban, az AI-szolgáltatások kitettsége és más mérgező kockázati kombinációk, amelyeket a támadók kihasználhatnak” – mondta a biztonsági szolgáltató.

Eric Schwake, a Salt Security kiberbiztonsági stratégiájának igazgatója szerint a mesterséges intelligencia szolgáltatásként való használatával kapcsolatban két fő probléma van, amellyel a szervezeteknek tisztában kell lenniük. „Először is, a fenyegetés szereplői káros mesterségesintelligencia-modelleket tölthetnek fel, vagy kihasználhatják a következtetési verem sérülékenységét adatok ellopására vagy az eredmények manipulálására” – mondja. "Másodszor, a rosszindulatú szereplők megpróbálhatják kompromittálni a képzési adatokat, ami torz vagy pontatlan mesterséges intelligencia kimenetekhez vezethet, amit adatmérgezésnek neveznek."

Ezeknek a problémáknak az azonosítása kihívást jelenthet, különösen az AI-modellek bonyolultsága miatt, mondja. A kockázatok egy részének kezeléséhez fontos, hogy a szervezetek megértsék, hogyan működnek együtt mesterséges intelligencia-alkalmazásaik és -modelleik az API-val, és megtalálják a módját ennek biztosítására. „A szervezeteknek is érdemes lehet felfedezni Magyarázható AI (XAI) hogy segítsen az AI-modellek érthetőbbé tételében – mondja Schwake –, és segíthet azonosítani és mérsékelni az AI-modelleken belüli torzítást vagy kockázatot.

Időbélyeg:

Még több Sötét olvasmány