Več kot 100 modelov izvajanja zlonamerne kode na objemajočem se obrazu

Več kot 100 modelov izvajanja zlonamerne kode na objemajočem se obrazu

Raziskovalci so odkrili več kot 100 zlonamernih modelov strojnega učenja (ML) na platformi Hugging Face AI, ki lahko napadalcem omogočijo vbrizgavanje zlonamerne kode v uporabniške računalnike.

Čeprav Hugging Face izvaja varnostne ukrepe, ugotovitve poudarjajo naraščajoče tveganje »orožja« javno dostopnih modelov, saj lahko ustvarijo stranska vrata za napadalce.

Ugotovitve JFrog Security Research so del tekoče študije za analizo, kako lahko hekerji uporabijo ML za napad na uporabnike.

Škodljiva vsebina

Glede na članek avtorja Računalniki, so raziskovalci razvili napreden sistem skeniranja za natančno pregledovanje modelov, ki jih gosti platforma Hugging Face AI, kot sta PyTorch in Tensorflow Keras.

Hugging Face je platforma, razvita za skupno rabo modelov AI, nizov podatkov in aplikacij. Po analizi modelov so raziskovalci odkrili škodljive tovore "znotraj na videz neškodljivih modelov".

To je kljub dejstvu, da Hugging Face izvaja varnostne ukrepe, kot sta skeniranje zlonamerne programske opreme in kumaric. Platforma pa ne omejuje prenosa modelov, ki bi lahko bili potencialno škodljivi in ​​omogoča tudi javno dostopnost AI modeli da jih uporabniki zlorabljajo in oborožijo.

Pri pregledu platforme in obstoječih modelov so varnostni raziskovalci JFrog odkrili približno 100 modelov AI z zlonamerno funkcionalnostjo, glede na njihovo poročilo.

Poročilo navaja, da so nekateri od teh modelov zmožni izvajati kodo na uporabniških strojih, "s čimer ustvarijo trajna stranska vrata za napadalce."

Raziskovalci so tudi navedli, da takšne ugotovitve izključujejo lažne pozitivne rezultate. Rekli so, da so ti natančen prikaz razširjenosti zlonamernih modelov na platformi.

Preberite tudi: Apple preusmerja ekipo avtomobilov na umetno inteligenco po upočasnitvi trga vozil

Primeri

Po poročilu JFrog je eden od "zaskrbljujočih" primerov a PyTorch model. Model naj bi naložil uporabnik, identificiran kot "baller423", ki je bil nato izbrisan s platforme Hugging Face.

Pri nadaljnjem pregledu modela so raziskovalci opazili, da vsebuje zlonamerno obremenitev, ki mu omogoča vzpostavitev obratne lupine na določenem gostitelju (210.117.212.93).

Višji varnostni raziskovalec JFrog David Cohen je dejal: »(Je) opazno bolj vsiljiv in potencialno zlonamerno, saj vzpostavi neposredno povezavo z zunanjim strežnikom, kar kaže na morebitno varnostno grožnjo in ne zgolj na prikaz ranljivosti,« je zapisal.

To izkorišča "metodo '_reduce_' Pythonovega modula pickle za izvajanje poljubne kode ob nalaganju datoteke modela, ki učinkovito zaobide običajne metode zaznavanja."

Raziskovalci so tudi ugotovili, da isti tovor ustvarja povezave z različnimi naslovi IP, "kar kaže, da so operaterji lahko raziskovalci in ne zlonamerni hekerji."

Več kot 100 modelov izvajanja zlonamerne kode na objemajočem se obrazu PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Budilka

Ekipa JFrog je ugotovila, da so ugotovitve opozorilo za Hugging Face, saj kažejo, da je njegova platforma nagnjena k manipulacijam in potencialnim grožnjam.

"Ti incidenti služijo kot oster opomin na nenehne grožnje, s katerimi se soočajo skladišča Hugging Face in druga priljubljena skladišča, kot je Kaggle, ki bi lahko potencialno ogrozila zasebnost in varnost organizacij, ki uporabljajo te vire, poleg tega, da predstavljajo izziv za inženirje AI/ML," je dejal. raziskovalci.

Tako pride kibernetska varnost ogroža po vsem svetu je v porastu, ki ga spodbuja širjenje orodij AI, slabi akterji pa jih zlorabljajo za zlonamerne namene. Hekerji uporabljajo tudi umetno inteligenco za spodbujanje lažnih napadov in pretentanje ljudi.

Vendar pa je ekipa JFrog prišla do drugih odkritij.

Igrišče za raziskovalce

Raziskovalci so tudi ugotovili, da Objemni obraz se je razvilo v igrišče za raziskovalce, "ki se želijo boriti proti nastajajočim grožnjam, kar dokazuje raznolika paleta taktik za izogibanje varnostnim ukrepom."

Koristni tovor, ki ga je naložil »baller423«, je na primer sprožil povratno lupinsko povezavo z obsegom naslovov IP, ki pripada Kreonetu (Korea Research Environment Open Network).

Glede na Temno branje, Kreonet je visokohitrostno omrežje v Južni Koreji, ki podpira napredne raziskovalne in izobraževalne dejavnosti; "zato je možno, da za modelom stojijo raziskovalci ali izvajalci AI."

"Vidimo lahko, da je večina 'zlonamernih' uporabnih obremenitev dejansko poskusov raziskovalcev in/ali nagrad za hrošče, da bi dosegli izvajanje kode za navidezno legitimne namene," je dejal Cohen.

Kljub legitimnim namenom pa je ekipa JFrog opozorila, da strategije, ki so jih uporabili raziskovalci, jasno kažejo, da so platforme, kot je Hugging Face, odprte za napade v dobavni verigi. Te je po mnenju ekipe mogoče prilagoditi tako, da se osredotočijo na določene demografske podatke, kot so inženirji AI ali ML.

Časovni žig:

Več od MetaNovice