Lebih dari 100 Model Eksekusi Kode Berbahaya di Wajah Memeluk

Lebih dari 100 Model Eksekusi Kode Berbahaya di Wajah Memeluk

Para peneliti telah menemukan lebih dari 100 model pembelajaran mesin berbahaya (ML) pada platform Hugging Face AI yang memungkinkan penyerang menyuntikkan kode berbahaya ke mesin pengguna.

Meskipun Hugging Face menerapkan langkah-langkah keamanan, temuan ini menyoroti meningkatnya risiko โ€œmempersenjataiโ€ model yang tersedia untuk umum karena dapat menciptakan pintu belakang bagi penyerang.

Temuan JFrog Security Research merupakan bagian dari studi yang sedang berlangsung untuk menganalisis bagaimana peretas dapat menggunakan ML untuk menyerang pengguna.

Konten berbahaya

Menurut sebuah artikel oleh computing, para peneliti mengembangkan sistem pemindaian canggih untuk mengamati model yang dihosting di platform Hugging Face AI, seperti PyTorch dan Tensorflow Keras.

Hugging Face adalah platform yang dikembangkan untuk berbagi model, kumpulan data, dan aplikasi AI. Setelah menganalisis model tersebut, para peneliti menemukan muatan berbahaya โ€œdalam model yang tampaknya tidak berbahaya.โ€

Ini terlepas dari kenyataan bahwa Hugging Face melakukan langkah-langkah keamanan seperti malware dan pemindaian acar. Namun, platform tidak membatasi pengunduhan model yang berpotensi membahayakan dan juga memungkinkan tersedia untuk umum Model AI untuk disalahgunakan dan dijadikan senjata oleh pengguna.

Saat memeriksa platform dan model yang ada, peneliti keamanan JFrog menemukan sekitar 100 model AI dengan fungsi berbahaya, menurut mereka. melaporkan.

Beberapa dari model ini, menurut laporan tersebut, mampu mengeksekusi kode pada mesin pengguna, โ€œsehingga menciptakan pintu belakang yang terus-menerus bagi penyerang.โ€

Para peneliti juga mengindikasikan bahwa temuan tersebut tidak termasuk hasil positif palsu. Ini, kata mereka, adalah representasi akurat dari prevalensi model jahat di platform.

Baca juga: Apple Mengalihkan Tim Mobil ke Perlambatan Pasar AI Pasca-EV

Contohnya

Menurut laporan JFrog, salah satu kasus yang โ€œmengkhawatirkanโ€ melibatkan a PyTorch model. Model tersebut dilaporkan diunggah oleh pengguna yang diidentifikasi sebagai โ€œballer423โ€, yang kemudian dihapus dari platform Hugging Face.

Saat meneliti lebih lanjut model tersebut, para peneliti menyadari bahwa model tersebut berisi muatan berbahaya, yang memungkinkannya membuat shell terbalik pada host tertentu (210.117.212.93).

Peneliti keamanan senior JFrog David Cohen berkata: โ€œ(Ini) lebih mengganggu dan berpotensi berbahaya, karena membuat koneksi langsung ke server eksternal, yang menunjukkan potensi ancaman keamanan, bukan sekadar menunjukkan kerentanan,โ€ tulisnya.

Hal ini memanfaatkan โ€œmetode '_reduce_' modul acar Python untuk mengeksekusi kode arbitrer saat memuat file model, yang secara efektif melewati metode deteksi konvensional.โ€

Para peneliti juga menyadari bahwa muatan yang sama menciptakan koneksi ke alamat IP yang berbeda, โ€œmenunjukkan bahwa operator mungkin adalah peneliti, bukan peretas jahat.โ€

Lebih dari 100 Model Eksekusi Kode Berbahaya pada Kecerdasan Data PlatoBlockchain Memeluk Wajah. Pencarian Vertikal. Ai.

Panggilan bangun

Tim JFrog mencatat bahwa temuan ini merupakan peringatan bagi Hugging Face, yang menunjukkan bahwa platformnya rentan terhadap manipulasi dan potensi ancaman.

โ€œInsiden ini menjadi pengingat yang menyedihkan akan ancaman yang sedang dihadapi oleh repositori Hugging Face dan repositori populer lainnya seperti Kaggle, yang berpotensi membahayakan privasi dan keamanan organisasi yang menggunakan sumber daya ini, selain menimbulkan tantangan bagi para insinyur AI/ML,โ€ ungkapnya. para peneliti.

Ini datang sebagai ancaman keamanan siber di seluruh dunia jumlahnya meningkat, didorong oleh proliferasi alat-alat AI, dan pihak-pihak jahat menyalahgunakannya untuk tujuan jahat. Peretas juga menggunakan AI untuk melancarkan serangan phishing dan mengelabui orang.

Namun, tim JFrog menemukan penemuan lain.

Taman bermain bagi para peneliti

Para peneliti juga mencatat hal itu Wajah Memeluk telah berkembang menjadi arena bermain bagi para peneliti โ€œyang ingin memerangi ancaman yang muncul, seperti yang ditunjukkan oleh beragam taktik untuk mengabaikan langkah-langkah keamanannya.โ€

Misalnya, payload yang diunggah oleh โ€œballer423โ€ memulai koneksi shell terbalik ke rentang alamat IP milik Kreonet (Jaringan Terbuka Lingkungan Penelitian Korea).

Menurut Membaca Gelap, Kreonet adalah jaringan berkecepatan tinggi di Korea Selatan yang mendukung kegiatan penelitian dan pendidikan tingkat lanjut; โ€œOleh karena itu, ada kemungkinan bahwa peneliti atau praktisi AI berada di belakang model ini.โ€

โ€œKita dapat melihat bahwa sebagian besar muatan 'berbahaya' sebenarnya merupakan upaya para peneliti dan/atau bug bounty untuk mendapatkan eksekusi kode untuk tujuan yang tampaknya sah,โ€ kata Cohen.

Terlepas dari tujuan yang sah, tim JFrog memperingatkan bahwa strategi yang digunakan oleh para peneliti dengan jelas menunjukkan bahwa platform seperti Hugging Face terbuka terhadap serangan rantai pasokan. Menurut tim, hal ini dapat disesuaikan untuk fokus pada demografi tertentu, seperti insinyur AI atau ML.

Stempel Waktu:

Lebih dari Berita Meta