מפת הדרכים של CISA: הכנת קורס לפיתוח AI אמין

מפת הדרכים של CISA: מתווה קורס לפיתוח AI אמין

מפת הדרכים של CISA: מתווה קורס לפיתוח AI אמין PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

פַּרשָׁנוּת
אימוץ מהיר של טכנולוגיית בינה מלאכותית עורר דאגות רציניות בתחום הסייבר בקרב מומחי בינה מלאכותית, קובעי מדיניות, טיטאנים בתעשיית הטכנולוגיה, מדינות ומנהיגי עולם. בתגובה חשפה הסוכנות לאבטחת סייבר ותשתיות (CISA) את זה 2023–2024 "מפת הדרכים של CISA לבינה מלאכותית", במטרה ליצור פיתוח ושימוש מאובטח ואמין ב-AI, לפי הנחיות צו ביצוע של הבית הלבן 14110.

CISA פרסמה את "תוכנית אסטרטגית" לשנים 2023–2025 עם המשימה לספק תשתית מאובטחת וגמישה לציבור האמריקאי. מפת הדרכים של AI היא התאמה של אותם ארבע יעדים המודגשים בתוכנית האסטרטגית:

  • הגנת סייבר: בעוד שמערכות בינה מלאכותית יכולות לעזור לארגונים לשפר את ההגנה שלהם מפני איומי סייבר מתעוררים כמו גם מתקדמים, מערכות תוכנה מבוססות בינה מלאכותית מהוות מספר סיכונים שמחייבים איתן הגנת AI. מפת הדרכים נועדה לקדם את השימוש המועיל בבינה מלאכותית ובמקביל להגן על מערכות המדינה מפני איומים מבוססי בינה מלאכותית.

  • הפחתת סיכונים וחוסן: תשתית קריטית ארגונים משתמשים יותר ויותר במערכות AI כדי לשמור ולחזק את חוסן הסייבר שלהם. עם מפת הדרכים שלה, CISA שואפת לקדם אימוץ אחראי ומודע לסיכון של מערכות תוכנה מבוססות בינה מלאכותית שהן "מאובטח בעיצוב" - כאשר האבטחה מיושמת בשלב התכנון של מחזור חיי הפיתוח של המוצר, כך שניתן להפחית פגמים שניתנים לניצול במקור.

  • שיתוף פעולה תפעולי: ככל שטכנולוגיית AI מתרבה, אזרחי ארה"ב ומגזרי תשתית קריטיים עשויים להיות נתונים לאיומים ממוקדים, אשר עשויים לדרוש שיתוף מידע ותגובות מתואמות מארגונים, סוכנויות אכיפת חוק ושותפים בינלאומיים. CISA מתכננת לפתח מסגרת שתעזור לשפר את ההתאמה והתיאום בין מחזיקי העניין הרלוונטיים.

  • איחוד סוכנות: CISA שואפת לאחד ולשלב מערכות תוכנת AI ברחבי הסוכנות, מה שיעזור לה להשתמש במערכות AI בצורה קוהרנטית יותר. CISA מתכננת גם לגייס ולפתח כוח עבודה המסוגל לרתום בצורה מיטבית מערכות AI.

מפת הדרכים של בינה מלאכותית מטילה חובת אבטחה על מפתחי בינה מלאכותית, לא על צרכני בינה מלאכותית

מבחינה היסטורית, יצרני תוכנת בינה מלאכותית התנגדו לבניית מוצרים מאובטחים בתכנון, מה שמטיל את נטל האבטחה על צרכני בינה מלאכותית. מפת הדרכים של CISA AI מחייבת יצרני מערכות בינה מלאכותית לאמץ עקרונות תכנון מאובטחים לאורך כל מחזור חיי הפיתוח. זה כולל הפיכת אבטחה לפי עיצוב לעדיפות עסקית עליונה, לקיחת בעלות על תוצאות האבטחה עבור לקוחות, והובלת פיתוח מוצר בשקיפות ובאחריות רדיקלית.

CISA מתכננת ליישם חמישה קווי מאמץ כדי להשיג את יעדיה המוצהרים

CISA זיהתה חמישה קווי מאמץ לאחד ולהאיץ את מפת הדרכים לעיל:

  • שימוש אחראי ב-AI: בכוונת CISA לפרוס כלי תוכנה התומכים בבינה מלאכותית כדי לחזק את הגנת הסייבר ולתמוך בתשתיות קריטיות. כל המערכות והכלים יעברו תהליך בחירה קפדני שבו CISA תבטיח שמערכות הקשורות לבינה מלאכותית אחראיות, מאובטחות, אתיות ובטוחות לשימוש. CISA גם תפרוס תהליכי ממשל חזקים שלא רק יהיו עקביים עם תהליכי רכש פדרליים, חוקים ומדיניות ישימים, פרטיות וזכויות וחירויות אזרח, אלא גם יאמצו גישה להערכה מתמשכת של מודלים של AI תוך סקירת נהלי אבטחת IT לשילוב מאובטח הטכנולוגיה.

  • להבטיח מערכות בינה מלאכותית: כדי לבנות פיתוח והטמעה של תוכנת בינה מלאכותית מאובטחת וגמישה יותר, CISA מתכננת לקדם מאובטח-על-ידי עיצוב יוזמות, פיתוח שיטות אבטחה מומלצות והנחיה עבור מגוון רחב של בעלי עניין (למשל, סוכנויות ממשלתיות אזרחיות פדרליות, חברות במגזר הפרטי, ממשלות מדינתיות, מקומיות, שבטיות וטריטוריאליות) והנעת אימוץ של שיטות ניהול נקודות תורפה חזקות, תוך ציון תהליך חשיפת נקודות תורפה. ומתן הדרכה לבדיקות אבטחה ותרגילי צוות אדומים למערכות AI.

  • הגן על תשתית קריטית מפני שימוש זדוני ב-AI: CISA תשתף פעולה עם סוכנויות ממשלתיות ושותפים בתעשייה כגון שיתוף פעולה משותף להגנה על הסייבר לפתח, לבדוק ולהעריך כלי AI ולשתף פעולה בהתפתחות איומי AI. CISA תפרסם חומרים להעלאת המודעות לסיכונים המתעוררים וכן תעריך שיטות ניהול סיכונים כדי לקבוע את המסגרת האנליטית המתאימה להערכה וטיפול בסיכוני AI.

  • שיתוף פעולה עם בין-סוכנויות, שותפים בינלאומיים והציבור: כדי להעלות את המודעות, לשתף מידע על איומים ולשפר את התגובה לאירועים ויכולות החקירה, CISA מתכננת לטפח גישות שיתופיות כגון קבוצות עבודה של בינה מלאכותית, השתתפות או השתתפות בפגישות בין-סוכנויות, ותיאום הדוק עם גורמי המחלקה לביטחון המולדת. CISA תפעל בכל הסוכנות הבין-סוכנות כדי להבטיח שהמדיניות והאסטרטגיות שלה יתאימו עם כל הממשלה גישה ותשתף שותפים בינלאומיים כדי לעודד אימוץ של שיטות עבודה מומלצות בינלאומיות לבינה מלאכותית מאובטחת.

  • הרחבת מומחיות בינה מלאכותית בכוח העבודה: בן אנוש דרושים תמיד ערנות, פיקוח ואינטואיציה כדי לזהות איומי סייבר מבוססי בינה מלאכותית ולא מבוססת בינה מלאכותית וכדי להבטיח שמערכות בינה מלאכותית נקיות משגיאות, הטיות ומניפולציות. אינטואיציה וערנות אנושית יכולים להתחזק רק עם יוזמות איתן של מודעות לאבטחה. זו הסיבה ש-CISA מתכננת לחנך ברציפות את כוח העבודה על מערכות תוכנה וטכניקות בינה מלאכותית, לגייס עובדים עם מומחיות בינה מלאכותית ולקיים תוכניות הכשרה למודעות אבטחה שצריכות לכלול תרגילים מצביים כדי להבטיח שהעובדים יבינו את ההיבטים המשפטיים, האתיים והמדיניות של מבוססי בינה מלאכותית. מערכות, מעבר להיבטים הטכניים. 

באמצעות היוזמות המתוארות במפת הדרכים של CISA, הסוכנות מקווה לבנות עמדת אבטחת סייבר חזקה יותר עבור המדינה, להגן על תשתית קריטית מפני שימוש זדוני ב-AI, ולתעדף אבטחה כדרישה עסקית מרכזית בכלים ומערכות מבוססות בינה מלאכותית.

בול זמן:

עוד מ קריאה אפלה