האם איומים מהונדסים בבינה מלאכותית הם FUD או מציאות?

האם איומים מהונדסים בבינה מלאכותית הם FUD או מציאות?

האם איומים מהונדסים בבינה מלאכותית הם FUD או מציאות? PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

ברגע שיישומי AI גנרטיביים הגיעו לשוק, זה שינה את קצב העסקים - לא רק עבור צוותי אבטחה, אלא גם עבור פושעי סייבר. כיום, אי אימוץ חידושי בינה מלאכותית עשויה להיות ירידה מאחורי המתחרים שלך ולהעמיד את הגנת הסייבר שלך בעמדת נחיתות מפני התקפות סייבר המופעלות על ידי AI. אבל כשדנים כיצד בינה מלאכותית תשפיע או לא תשפיע על פשעי סייבר, חשוב שנסתכל על הדברים דרך עדשה פרגמטית ומפוכחת - לא ניזון להייפ שנקרא יותר כמו מדע בדיוני.

התקדמות הבינה המלאכותית והבגרות של היום מאותתות על קפיצת מדרגה משמעותית לאבטחה ארגונית. פושעי סייבר לא יכולים להתאים בקלות לגודל ולהיקף המשאבים, הכישורים והמוטיבציה של ארגונים, מה שמקשה עליהם לעמוד בקצב הנוכחי של חדשנות בינה מלאכותית. השקעה במיזם פרטי בבינה מלאכותית התפוצץ ל-93.5 מיליארד דולר ב-2021 - לרעים אין רמת הון כזו. אין להם גם את כוח האדם, כוח המחשוב והחידושים שמעניקים לחברות מסחריות או לממשלה יותר זמן והזדמנות להיכשל מהר, ללמוד מהר ולעשות את זה נכון קודם.

עם זאת, אל תטעו: פשעי הסייבר יתדביקו. זו לא הפעם הראשונה שלתעשיית האבטחה יש יתרון קצר - כאשר תוכנות כופר החלו להניע יותר מגינים לאמץ טכנולוגיות זיהוי ותגובה של נקודות קצה, התוקפים נזקקו לזמן מה כדי להבין כיצד לעקוף ולהתחמק מהגילויים הללו. אותה "תקופת חסד" ביניים נתנה לעסקים זמן טוב יותר להגן על עצמם. הדבר נכון גם כעת: עסקים צריכים למקסם את ההובלה שלהם במרוץ הבינה המלאכותית, לקדם את יכולות זיהוי האיומים והתגובה שלהם ולמנף את המהירות והדיוק שהחידושים העכשוויים בבינה מלאכותית מעניקים להם.

אז איך AI משנה את פשעי הסייבר? ובכן, זה לא ישנה את זה מהותית בקרוב, אבל זה ישנה את זה במקרים מסוימים. הבה נסקור היכן שימוש זדוני ב-AI ישפיע ולא ישפיע באופן מיידי ביותר.

מסעות פרסום אוטומטיים לחלוטין של תוכנות זדוניות: FUD

בחודשים האחרונים ראינו טענות לגבי מקרי שימוש זדוני שונים של AI, אבל רק בגלל שתרחיש אפשרי לא הופך אותו לסביר. קחו למשל קמפיינים אוטומטיים של תוכנות זדוניות אוטומטיות לחלוטין - ההיגיון אומר שאפשר למנף בינה מלאכותית כדי להשיג את התוצאה הזו, אבל בהתחשב בכך שחברות טכנולוגיה מובילות עדיין לא היו חלוצות במחזורי פיתוח תוכנה אוטומטיים לחלוטין, אין זה סביר שקבוצות של פשעי סייבר עם מוגבלות כלכלית ישיגו זאת מוקדם יותר . אפילו אוטומציה חלקית יכולה לאפשר את קנה המידה של פשעי סייבר, עם זאת, טקטיקה שכבר ראינו בשימוש ב קמפיינים של באזאר. זה לא חידוש, אלא א טכניקה מנוסה שהמגנים כבר לוקחים על עצמם.

דיוג מהונדס בינה מלאכותית: המציאות (אבל ההקשר הוא המפתח)

מקרה שימוש נוסף שכדאי לשקול הוא התקפות דיוג מהונדסים בינה מלאכותית. לא רק שזה אפשרי, אלא שאנחנו כבר מתחילים לראות את ההתקפות האלה בטבע. הדור הבא של פישינג עשוי להשיג רמות גבוהות יותר של שכנוע ושיעור קליקים, אבל פיש מהנדס אנושי ופיש מהנדס בינה מלאכותית עדיין נוסעים לעבר אותה מטרה. במילים אחרות, פיש מהנדס בינה מלאכותית הוא עדיין דיוג שמחפש קליק, והוא דורש את אותה מוכנות זיהוי ותגובה.

עם זאת, למרות שהבעיה נשארת זהה, קנה המידה שונה בתכלית. בינה מלאכותית פועלת כמכפיל כוח להגדלת קמפיינים דיוגים, כך שאם ארגון רואה עלייה בהודעות דיוג נכנסות - והמיילים הזדוניים האלה משכנעים משמעותית - אז סביר להניח שהוא מסתכל על סבירות גבוהה של שיעור קליקים ופוטנציאל לפשרה. מודלים של בינה מלאכותית יכולים גם להגביר את יעילות המיקוד, לעזור לתוקפים לקבוע מיהו היעד הרגיש ביותר עבור פיש ספציפי בארגון ובסופו של דבר להגיע להחזר ROI גבוה יותר מהקמפיינים שלהם. התקפות פישינג היו באופן היסטורי בין הטקטיקות המוצלחות ביותר שתוקפים השתמשו בהן כדי לחדור לארגונים. קנה המידה של סוג זה של התקפה מדגיש את התפקיד הקריטי שטכנולוגיות EDR, MDR, XDR ו-IAM ממלאות בזיהוי התנהגות חריגה לפני שהיא משיגה השפעה.

התקפות הרעלת בינה מלאכותית: FUD-ish

התקפות הרעלת AI, במילים אחרות מניפולציה פרוגרמטית של הקוד והנתונים שעליהם בנויים מודלים של AI, עשויה להיות "הגביע הקדוש" של התקפות על פושעי סייבר. ההשפעה של התקפת הרעלה מוצלחת יכולה לנוע בכל מקום מניסיונות מידע מוטעה ועד Die Hard 4.0. למה? כי על ידי הרעלת המודל, תוקף יכול לגרום לו להתנהג או לתפקד בכל דרך שהוא רוצה, וזה לא ניתן לזיהוי בקלות. עם זאת, התקפות אלו אינן קלות לביצוע - הן דורשות גישה לנתונים שעליהם מתאמן מודל הבינה המלאכותית בזמן האימון, וזה הישג לא קטן. ככל שדגמים נוספים יהפכו לקוד פתוח, הסיכון להתקפות אלו יגדל, אך הוא יישאר נמוך לעת עתה.

הלא ידוע

אמנם חשוב להפריד בין ההייפ למציאות, אבל חשוב גם להבטיח שאנו שואלים את השאלות הנכונות לגבי ההשפעה של AI על נוף האיומים. יש הרבה לא ידועים לגבי הפוטנציאל של AI - איך זה עשוי לשנות את המטרות והיעדים של יריבים, אסור לנו להתעלם. עדיין לא ידוע כיצד יכולות חדשות עשויות לעזור לשרת מטרות חדשות עבור יריבים ולכייל מחדש את המניעים שלהם.

אולי לא נראה עלייה מיידית בהתקפות חדשות התומכות בינה מלאכותית, אך להרחבה של פשעי סייבר הודות לבינה מלאכותית תהיה השפעה מהותית על ארגונים שאינם מוכנים. מהירות וקנה מידה הם מאפיינים מהותיים של בינה מלאכותית, וכפי שמגנים מבקשים להפיק מהם תועלת, כך גם התוקפים. צוותי האבטחה כבר אינם מאוישים ומוצפים - לראות עלייה בהתערבויות של תעבורה זדונית או תגובה לאירועים מהווה משקל משמעותי נוסף לעומס העבודה שלהם.

זה מאשר יותר מתמיד את הצורך של ארגונים להשקיע בהגנות שלהם, שימוש ב-AI כדי להניע מהירות ודיוק ביכולות זיהוי האיומים והתגובה שלהם. מפעלים שינצלו את "תקופת החסד" הזו ימצאו את עצמם הרבה יותר מוכנים וגמישים ליום שבו התוקפים אכן יצליחו להתעדכן במירוץ הסייבר של AI.

בול זמן:

עוד מ קריאה אפלה