Több mint 100 rosszindulatú kód-végrehajtási modell ölelő arcon

Több mint 100 rosszindulatú kód-végrehajtási modell ölelő arcon

A kutatók több mint 100 rosszindulatú gépi tanulási (ML) modellt tártak fel a Hugging Face AI platformon, amelyek lehetővé teszik a támadók számára, hogy rosszindulatú kódokat fecskendezzenek be a felhasználói gépekre.

Bár a Hugging Face biztonsági intézkedéseket hajt végre, az eredmények rávilágítanak a nyilvánosan elérhető modellek „fegyverzésének” növekvő kockázatára, mivel ezek hátsó ajtót teremthetnek a támadók számára.

A JFrog Security Research eredményei egy folyamatban lévő tanulmány részét képezik, amely azt vizsgálja, hogy a hackerek hogyan használhatják az ML-t a felhasználók megtámadására.

Káros tartalom

Egy cikk szerint SzámítástechnikaA kutatók fejlett szkennelő rendszert fejlesztettek ki a Hugging Face AI platformon tárolt modellek, például a PyTorch és a Tensorflow Keras alapos vizsgálatára.

A Hugging Face egy AI-modellek, adatkészletek és alkalmazások megosztására kifejlesztett platform. A modellek elemzése során a kutatók káros hasznos terheket fedeztek fel „a látszólag ártalmatlan modelleken belül”.

Ez annak ellenére van így, hogy a Hugging Face olyan biztonsági intézkedéseket hajt végre, mint a rosszindulatú programok és a savanyúság ellenőrzése. A platform azonban nem korlátozza a potenciálisan káros modellek letöltését, és lehetővé teszi a nyilvánosan elérhetőt is AI modellek hogy a felhasználók visszaéljenek vele és felfegyverkezzék.

A platform és a meglévő modellek vizsgálata során a JFrog biztonsági kutatói mintegy 100 AI-modellt fedeztek fel rosszindulatú funkciókkal. jelentést.

A jelentés szerint ezen modellek némelyike ​​képes kódot futtatni a felhasználók gépein, „így állandó hátsó ajtót hozva létre a támadók számára”.

A kutatók azt is jelezték, hogy az ilyen eredmények kizárják a hamis pozitív eredményeket. Ezek szerintük pontosan tükrözik a rosszindulatú modellek elterjedtségét a platformon.

Lásd még: Az Apple átirányítja az autós csapatot az AI utáni EV-piac lassulására

A példák

JFrog jelentése szerint az egyik „riasztó” eset a PyTorch modell. A modellt állítólag egy „baller423” néven azonosított felhasználó töltötte fel, amelyet később töröltek a Hugging Face platformról.

A modell további vizsgálata során a kutatók észrevették, hogy rosszindulatú rakományt tartalmazott, ami lehetővé tette számára, hogy egy fordított shellt hozzon létre egy megadott gazdagépen (210.117.212.93).

A JFrog vezető biztonsági kutatója, David Cohen azt mondta: „(Ez) lényegesen tolakodóbb és potenciálisan rosszindulatú, mivel közvetlen kapcsolatot létesít egy külső szerverrel, ami potenciális biztonsági fenyegetést jelez, nem pedig a sebezhetőség puszta demonstrációját” – írta.

Ez kihasználja „a Python pácolás moduljának „_reduce_” metódusát, hogy tetszőleges kódot hajtson végre a modellfájl betöltésekor, hatékonyan megkerülve a hagyományos észlelési módszereket.

A kutatók azt is felismerték, hogy ugyanaz a hasznos teher különböző IP-címekhez hoz létre kapcsolatokat, „ami azt sugallja, hogy az operátorok inkább kutatók, mint rosszindulatú hackerek”.

Több mint 100 rosszindulatú kódvégrehajtási modell az átölelő arc PlatoBlockchain adatintelligenciáján. Függőleges keresés. Ai.

Ébresztés

A JFrog csapata megjegyezte, hogy az eredmények ébresztőt jelentenek a Hugging Face számára, megmutatva, hogy platformja hajlamos a manipulációra és a potenciális fenyegetésekre.

"Ezek az incidensek megrendítő emlékeztetőül szolgálnak a Hugging Face adattárakat és más népszerű adattárakat, például a Kaggle-t fenyegető fenyegetésekre, amelyek potenciálisan veszélyeztethetik az ezeket az erőforrásokat használó szervezetek magánéletét és biztonságát, amellett, hogy kihívást jelentenek az AI/ML mérnökök számára" a kutatók.

Ez így van kiberbiztonsági fenyegetések a Világszerte növekszik az AI-eszközök elterjedése, a rossz szereplők pedig rosszindulatú szándékkal visszaélnek velük. A hackerek mesterséges intelligencia segítségével is előmozdítják az adathalász támadásokat és átverik az embereket.

A JFrog csapata azonban más felfedezéseket is tett.

A kutatók játszótere

A kutatók azt is megjegyezték Átölelő arc a kutatók játszóterévé fejlődött, „akik küzdeni szeretnének a felmerülő fenyegetésekkel, amint azt a biztonsági intézkedések megkerülésére szolgáló taktikák sokfélesége is bizonyítja”.

Például a „baller423” által feltöltött hasznos adat fordított shell-kapcsolatot kezdeményezett egy olyan IP-címtartományhoz, amely a Kreonethez (Korea Research Environment Open Network) tartozik.

Szerint Sötét olvasás, A Kreonet egy nagy sebességű hálózat Dél-Koreában, amely fejlett kutatási és oktatási tevékenységeket támogat; „ezért lehetséges, hogy mesterséges intelligenciakutatók vagy szakemberek állhattak a modell mögött.”

„Látható, hogy a legtöbb „rosszindulatú” adat valójában a kutatók és/vagy hibajavítási kísérletek, hogy látszólag legitim célból kódfuttatást kapjanak” – mondta Cohen.

A törvényes célok ellenére a JFrog csapata azonban arra figyelmeztetett, hogy a kutatók által alkalmazott stratégiák egyértelműen bizonyítják, hogy az olyan platformok, mint a Hugging Face, nyitottak az ellátási lánc támadásaira. A csapat szerint ezek testreszabhatók, hogy bizonyos demográfiai jellemzőkre összpontosítsanak, például AI vagy ML mérnökökre.

Időbélyeg:

Még több MetaNews