פרצות אבטחת סייבר בינה מלאכותית עבור מחנכים להיות מודעים למודיעין נתונים PlatoBlockchain. חיפוש אנכי. איי.

פגיעויות אבטחת סייבר בינה מלאכותית שאנשי חינוך צריכים להיות מודעים אליהן

בינה מלאכותית עשויה להיות כלי רב ערך בחינוך, אבל היא גם מציבה כמה פגיעות מרכזיות באבטחת סייבר שאנשי חינוך צריכים להיות מודעים אליהן. ישנן מספר הולך וגדל של דרכים שבהן האקרים יכולים לנצל חולשות בינה מלאכותית ולעקוף מערכות אבטחה בינה מלאכותית. להלן מבט על פגיעויות האבטחה המובילות של AI שנמצאות במגמת עלייה כיום וכיצד הן יכולות להשפיע על החינוך.

נתוני אימון בינה מלאכותית בסיכון

אלגוריתמי בינה מלאכותית יכולים להיות שימושיים ביותר בחינוך, אך אופי הקופסה השחורה של רוב ה-AI מציב פגיעות רצינית של אבטחת סייבר. אלגוריתמים מאומנים באמצעות סטים של נתוני אימון שמלמדים את ה-AI להבין או לזהות משהו. לדוגמה, AI עשוי להיות מאומן להבין בעיות אלגברה בכיתה ח' כדי שיוכל לדרג שיעורי בית.

עם זאת, האופן שבו אלגוריתמי בינה מלאכותית מעבדים מידע מוסתרת בקופסה שחורה, כלומר תקלות והטיות יכולות להיעלם מעיניהן. בינה מלאכותית עשויה בלי משים ללמוד משהו שגוי או ליצור קשרים כוזבים מנתוני האימון. אופי הקופסה השחורה של בינה מלאכותית אומר גם שנתוני אימון מורעלים יכולים להיעלם מעיניהם.

האקרים יכולים להכתים נתוני אימון כדי לכלול א דלת אחורית מוסתרת ב-AI הִגָיוֹן. כאשר ההאקר רוצה גישה למערכת שבה ישמש הבינה המלאכותית, הם יכולים פשוט להזין את המפתח של הדלת האחורית וה-AI יזהה אותו מנתוני האימון. דלתות אחוריות כאלה עשויות להיות קשה מאוד לזיהוי מכיוון שמפתחים ומשתמשים לא יכולים לראות את כל החיבורים המתרחשים בקופסה השחורה של ה-AI.

"הדרך שבה אלגוריתמי בינה מלאכותית מעבדים מידע מוסתרת בקופסה שחורה, כלומר תקלות והטיות יכולות להיעלם מעיניהם." 

האקרים מסתגלים

יצירת דלת אחורית בנתוני אימון בינה מלאכותית היא תהליך מורכב ועתיר זמן ומשהו שבעיקר רק האקרים מיומנים מאוד יוכלו לעשותו. לרוע המזל, האקרים מתאימים את אסטרטגיות ההתקפה שלהם כדי לעקוף את יכולות ציד האיומים של AI. למעשה, האקרים אפילו יוצרים אלגוריתמי AI משלהם שיכולים להערים על אלגוריתמים אחרים.

לדוגמה, האקרים פיתחו AI שיכולים פיצוח סיסמאות באופן אוטונומי לעקוף מערכות ניהול גישה. גרוע מכך, האקרים משתמשים בבינה מלאכותית כדי להפוך את תוכנות הכופר והתוכנות זדוניות שלהם לחכמים מספיק כדי לעבור את פרוטוקולי האבטחה המופעלים על ידי בינה מלאכותית.

זהו איום רציני על החינוך מכיוון שבתי ספר בהכרח צריכים לאסוף כמויות גדולות של מידע אישי על תלמידים ומשפחות. הנתונים של בתי הספר הם יעד מושך ביותר עבור האקרים, שיודעים שפגיעה בנתונים הללו תגרום לפאניקה, שעלולה להוביל לתשלום גדול של תוכנות כופר מהקורבנות.

עם מערכות אבטחה בינה מלאכותית בסיכון, מחנכים עשויים להיות מודאגים לגבי מה שהם יכולים לעשות כדי להגן על התלמידים שלהם. אבל יש פתרונות. לדוגמה, מערכות AI מבוססות ענן עשויות להיות בטוחות יותר מאלה המבוססות על מרכזי נתונים קונבנציונליים. בנוסף, מערכות הגנת נתונים אינטליגנטיות בענן, הבנויות במיוחד עבור מערכות מקוריות בענן, יכול לספק שכבת אבטחה נוספת לנתוני בתי ספר במקרה של מתקפת סייבר בינה מלאכותית.

זיופים עמוקים וזיהוי תמונה פגום

בנוסף לדלתות אחוריות, האקרים יכולים גם לנצל תקלות לא מכוונות באלגוריתמים של AI. לדוגמה, האקר יכול להתעסק בתמונות כדי להערים על AI לזהות תמונה באופן שגוי.

ניתן להשתמש בטכנולוגיית Deepfake גם כדי להסוות קבצי וידאו, תמונות או אודיו כמשהו שהם לא. זה יכול לשמש ליצירת סרטון הונאה של מורה או מנהל, למשל. Deepfakes יכול לאפשר להאקרים להיכנס למערכות המסתמכות על זיהוי אודיו או תמונה עבור בקרת גישה.

האקרים יכולים למנף בינה מלאכותית בעצמם כדי ליצור זיופים עמוקים מציאותיים ביותר שיהפכו לאחר מכן לשיטת ההתקפה. לדוגמה, תוכנית הונאה לשנת 2021 השתמשו בזיופים עמוקים של AI לגנוב 35 מיליון דולר מבנק בהונג קונג.

האקרים יכולים לנשק AI באותו אופן כדי ליצור זיופים עמוקים של קולות של הורים, מורים או מנהלים. הם פותחים במתקפה על ידי התקשרות למישהו בטלפון ותעתוע בו באמצעות זיוף עמוק מבוסס קול. זה יכול לשמש כדי לגנוב כסף או מידע אישי מבתי ספר, תלמידים, מורים ומשפחות.

"הנתונים של בתי הספר הם יעד מושך ביותר עבור האקרים, שיודעים שפגיעה בנתונים הללו תגרום לבהלה, שעלולה להוביל לתשלום גבוה של תוכנות כופר מהקורבנות." 

הסתמכות על AI לצורך בדיקות והדרכה

בינה מלאכותית מצוינת לאוטומציה של היבטים שונים של חינוך ואף יכולה לשפר את איכות החינוך של התלמידים. לדוגמה, אתר האינטרנט הפופולרי של שיעורי שפה Duolingo משתמש ב-AI למידת מכונה לעזור לתלמידים ללמוד בקצב שלהם. בתי ספר ומשאבים חינוכיים רבים אחרים משתמשים בטכנולוגיה דומה כיום. זה ידוע בשם לימוד AI אדפטיבי, וזה אפילו עוזר עם משימות חיוניות כמו ציון מבחנים.

לרוע המזל, הסתמכות זו על AI היא פגיעות באבטחת סייבר. האקרים נוטים למקד למערכות שהן חיוניות לתפעול מערכות מפתח. לכן, אם מחנכים מסתמכים על כלים מסוימים של שיעורי בינה מלאכותית כדי שהתלמידים יצליחו להשלים את הקורסים בהצלחה, האקר יכול לנצל את ההסתמכות על בינה מלאכותית. הם יכולים להשיק התקפת תוכנת כופר על אלגוריתמי AI חינוכי קריטי או אולי אפילו לעשות מניפולציות על ה-AI עצמו.

פגיעות מסוימת זו היא שילוב של כמה מהאיומים שהוזכרו לעיל. האקרים יכולים ליצור דלת אחורית בבינה מלאכותית המאפשרת להם להתעסק באלגוריתם כך שהוא מדרג לא נכון או ילמד את התלמידים מידע שגוי.

"אם מחנכים מסתמכים על כלים מסוימים להוראת בינה מלאכותית לתלמידים כדי להשלים בהצלחה את הקורסים, ההסתמכות על בינה מלאכותית יכולה להיות מנוצלת על ידי האקר." 

הישאר מודע לאיומי סייבר בחינוך

אין ספק שבינה מלאכותית יכולה להיות כלי בעל ערך רב למחנכים. עם זאת, שימוש בבינה מלאכותית דורש זהירות וגישה פרואקטיבית לאבטחת סייבר כדי להגן על פגיעויות בינה מלאכותית מפני ניצול על ידי האקרים.

כאשר בינה מלאכותית הופכת להיות נפוצה בכל מקום בחינוך ובחיי היומיום, האקרים מפתחים סוגים חדשים של התקפות סייבר שנועדו לסכל מערכות אבטחה חכמות. על ידי הישארות מודעים לאיומי הסייבר המתעוררים הללו, מחנכים יכולים לנקוט בפעולה כדי להגן על המערכות שלהם ועל תלמידיהם.

כמו כן, קרא 5 דרכים שבהן רובוטיקה תעזור לך להשיג יותר עסקים

בול זמן:

עוד מ טכנולוגיית AIOT