באגים קריטיים שמים את פלטפורמת הבינה המלאכותית של Hugging Face ב'חמוץ'

באגים קריטיים שמים את פלטפורמת הבינה המלאכותית של Hugging Face ב'חמוץ'

באגים קריטיים מכניסים את פלטפורמת בינה מלאכותית של Hugging Face במודיעין נתונים של PlatoBlockchain 'חמוצים'. חיפוש אנכי. איי.

שתי פרצות אבטחה קריטיות בפלטפורמת Hugging Face AI פתחו את הדלת לתוקפים שרצו לגשת ולשנות את נתוני הלקוחות והדגמים.

אחת מחולשות האבטחה נתנה לתוקפים דרך לגשת למודלים של למידת מכונה (ML) השייכים ללקוחות אחרים בפלטפורמת Hugging Face, והשנייה אפשרה להם להחליף את כל התמונות ברישום קונטיינר משותף. שני הפגמים, שהתגלו על ידי חוקרים ב-Wiz, היו קשורים ליכולת של תוקפים להשתלט על חלקים מתשתית ההסקה של Hugging Face.

חוקרי Wiz מצאו חולשות בשלושה מרכיבים ספציפיים: Hugging Face's Inference API, המאפשר למשתמשים לגלוש ולקיים אינטראקציה עם מודלים זמינים בפלטפורמה; Hugging Face Inference Endpoints - או תשתית ייעודית לפריסת דגמי AI לייצור; ו-Hugging Face Spaces, שירות אירוח להצגת יישומי AI/ML או לעבודה משותפת על פיתוח מודלים.

הבעיה עם מלפפון חמוץ

בבחינת התשתית של Hugging Face והדרכים לנשק את הבאגים שגילו, חוקרי Wiz גילו שכל אחד יכול להעלות בקלות מודל AI/ML לפלטפורמה, כולל כאלה המבוססים על פורמט Pickle. מלפפון חמוץ הוא מודול בשימוש נרחב לאחסון אובייקטי Python בקובץ. למרות שאפילו קרן תוכנת Python עצמה חשבה כי Pickle לא בטוח, היא נותרה פופולרית בגלל קלות השימוש שלה וההיכרות שיש לאנשים איתה.

"זה יחסית פשוט ליצור מודל PyTorch (Pickle) שיבצע קוד שרירותי בעת הטעינה", על פי Wiz.

חוקרי Wiz ניצלו את היכולת להעלות דגם פרטי מבוסס חמוצים ל-Huging Face שיפעיל מעטפת הפוכה עם הטעינה. לאחר מכן הם יצרו איתו אינטראקציה באמצעות ה-API של Inference כדי להשיג פונקציונליות דמוית מעטפת, שבה השתמשו החוקרים כדי לחקור את הסביבה שלהם על התשתית של Hugging Face.

התרגיל הזה הראה לחוקרים במהירות שהמודל שלהם רץ בתרמיל באשכול בשירות Amazon Elastic Kubernetes (EKS). משם הצליחו החוקרים למנף תצורות שגויות נפוצות כדי לחלץ מידע שאפשר להם לרכוש את ההרשאות הנדרשות לצפייה בסודות שיכלו לאפשר להם לגשת לדיירים אחרים בתשתית המשותפת.

עם Hugging Face Spaces, Wiz גילתה שתוקף יכול להפעיל קוד שרירותי במהלך זמן בניית האפליקציה שיאפשר להם לבחון חיבורי רשת מהמחשב שלו. הסקירה שלהם הראתה חיבור אחד לרישום מיכלים משותף המכיל תמונות השייכות ללקוחות אחרים שהם יכלו להתעסק בהן.

"בידיים הלא נכונות, ליכולת לכתוב ל-Container Registry הפנימי יכולה להיות השלכות משמעותיות על שלמות הפלטפורמה ולהוביל להתקפות שרשרת האספקה ​​על שטחי הלקוחות", אמר Wiz.

חיבוק פנים אמר זה הפחית לחלוטין את הסיכונים ש-Wiz גילה. בינתיים, החברה זיהתה שהבעיות קשורות לפחות בחלקן להחלטתה להמשיך ולאפשר את השימוש בקבצי Pickle בפלטפורמת Hugging Face, למרות סיכוני האבטחה המתועדים לעיל הקשורים לקבצים כאלה.  

"קבצי חמוצים היו הליבה של רוב המחקרים שנעשו על ידי Wiz ופרסומים אחרונים אחרים על ידי חוקרי אבטחה על חיבוק פנים", ציינה החברה. התרת שימוש ב-Pickle ב-Hugging Face היא "עומס על צוותי ההנדסה והאבטחה שלנו והשקענו מאמץ משמעותי כדי לצמצם את הסיכונים תוך מתן אפשרות לקהילת הבינה המלאכותית להשתמש בכלים שהיא בוחרת".

סיכונים מתעוררים עם AI-as-a-Service

Wiz תיאר את הגילוי שלה כמעיד על הסיכונים שארגונים צריכים להיות מודעים אליהם בעת שימוש בתשתית משותפת כדי לארח, להפעיל ולפתח מודלים ויישומים חדשים של בינה מלאכותית, מה שהופך לכינוי "AI-as-a-service". החברה השוותה את הסיכונים וההפחתות הנלוות לאלו שארגונים נתקלים בהם בסביבות ענן ציבורי והמליצה להם ליישם את אותן ההפחתות גם בסביבות AI.

"ארגונים צריכים להבטיח שיש להם נראות וניהול של כל ערימת הבינה המלאכותית שבה נעשה שימוש ולנתח בקפידה את כל הסיכונים", אמר Wiz בבלוג השבוע. זה כולל ניתוח "שימוש ב מודלים זדוניים, חשיפת נתוני ההדרכה, נתונים רגישים באימונים, פגיעויות ב-AI SDK, חשיפה של שירותי AI ושילובי סיכונים רעילים אחרים שעלולים לנצל על ידי תוקפים", אמר ספק האבטחה.

אריק שווק, מנהל אסטרטגיית אבטחת סייבר ב-Salt Security, אומר שיש שתי סוגיות עיקריות הקשורות לשימוש ב-AI-as-a-service שארגונים צריכים להיות מודעים אליהם. "ראשית, שחקני איומים יכולים להעלות מודלים מזיקים של בינה מלאכותית או לנצל נקודות תורפה בערימת ההסקות כדי לגנוב נתונים או לתמרן תוצאות", הוא אומר. "שנית, שחקנים זדוניים יכולים לנסות לפגוע בנתוני אימון, מה שמוביל לתפוקות בינה מלאכותית מוטות או לא מדויקות, המכונה בדרך כלל הרעלת נתונים."

זיהוי הבעיות הללו יכול להיות מאתגר, במיוחד עם מידת המורכבות של מודלים של AI, הוא אומר. כדי לסייע בניהול חלק מהסיכון הזה, חשוב לארגונים להבין כיצד יישומי הבינה המלאכותית והמודלים שלהם מתקשרים עם API ולמצוא דרכים לאבטח זאת. "גם ארגונים ירצו לחקור AI ניתן להסבר (XAI) כדי לעזור להפוך מודלים של בינה מלאכותית למובנים יותר", אומר שוואק, "וזה יכול לעזור לזהות ולהפחית הטיות או סיכונים בתוך מודלים של AI."

בול זמן:

עוד מ קריאה אפלה