תור הזהב של בינה מלאכותית ... או איומי אבטחה?

תור הזהב של בינה מלאכותית ... או איומי אבטחה?

תור הזהב של בינה מלאכותית ... או איומי אבטחה? PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

האם אנחנו בעידן הזהב של בינה מלאכותית? קשה לעשות תחזיות - וכנראה לא מומלצות. מי רוצה לחזות את העתיד של טכנולוגיה חדשה שכזו?

עם זאת, אנו יכולים לומר כמה דברים בוודאות. נעשה הרבה מאוד מהיישום של AI ליצירות יצירתיות, החל ממשחק קול ועד טיוטות ראשונות של תסריטים. אבל AI עשוי להיות שימושי ביותר כאשר מתמודדים עם עבודת פרך. אלו חדשות טובות למפתחים, אם ההבטחה תואמת ניסויים מוקדמים - ניתן ליצור טיוטות ראשונות של קוד בקלות ומוכנות למפתחים לצבוט ולחזור עליהן.

עם זאת, חשוב לזכור זאת לא כל קודן עובד עבור עסק לגיטימי. בדיוק כפי ששחקני איומי אבטחת סייבר חיקו את המטרות שלהם כשהם הפכו לעסקים יותר, הם גם מאמצים טכנולוגיות וטכניקות חדשות. אנו יכולים לצפות שבינה מלאכותית תעזור בפיתוח של תוכנות זדוניות ואיומים אחרים בשנים הקרובות, בין אם אנו נכנסים לתור הזהב של בינה מלאכותית או לא.

ניסוח קוד והונאות

מגמה אחת שראינו בשנים האחרונות היא עלייה של הצעות "כשירות". האקרים המוקדמים היו מתעסקים ומעללים, הטעו מערכות טלפון או גרמו לכאוס בעיקר כתרגיל בכיף. זה השתנה מהיסוד. שחקני איומים הם מקצועיים ולעתים קרובות מוכרים את המוצרים שלהם כדי שאחרים יוכלו להשתמש בהם.

בינה מלאכותית תתאים מאוד לדרך העבודה הזו. מסוגל ליצור קוד כדי להתמודד עם בעיות ספציפיות, AI יכול לתקן קוד כדי למקד פגיעויות או לקחת קוד קיים ולשנות אותו, כך שהוא לא כל כך מזוהה על ידי אמצעי אבטחה שמחפשים דפוסים ספציפיים.

אבל האפשרויות לשימוש לרעה של AI לא נעצרות שם. הודעות דיוג רבות מזוהות על ידי כלי סינון יעילים ומגיעות לתיקיות זבל. אלו שכן מגיעות לתיבת הדואר הנכנס הן לרוב הונאות ברורות מאוד, שכתובות בצורה כל כך גרועה שהן לא מובנות על גבול. אבל בינה מלאכותית יכולה לשבור את הדפוס הזה, וליצור אלפי הודעות דוא"ל סבירות שיכולות להתחמק מזיהוי ולהיות כתובות מספיק טוב כדי לשטות גם במסננים וגם במשתמשי קצה.

דיוג בחנית, הצורה הממוקדת יותר של התקפה זו, עשויה גם היא לחולל מהפכה על ידי הטכנולוגיה הזו. בטח, קל להתעלם מאימייל מהבוס שלך המבקש ממך להעביר כסף מזומן או לקנות בדחיפות כרטיסי מתנה - הדרכת אבטחת סייבר עוזרת לעובדים להימנע מסוג זה של הונאה. אבל מה לגבי שיחת טלפון מזויפת עמוקה או וידאו צ'אט? ל-AI יש פוטנציאל לקחת הופעות שידור ופודקאסטים ולהפוך אותם לדימוי משכנע, משהו שהרבה יותר קשה להתעלם ממנו.

נלחם נגד מתקפות סייבר בינה מלאכותית

ישנן שתי דרכים עיקריות להילחם נגד היתרונות שבינה מלאכותית תעניק לאויב - AI טוב יותר והכשרה טובה יותר — ושניהם יהיו נחוצים.

הופעתו של הדור החדש של AI החלה מרוץ חימוש חדש. כפי שפושעי סייבר משתמשים בו כדי לפתח את ההתקפות שלהם, כך יצטרכו צוותי אבטחה להשתמש בו כדי לפתח את ההגנה שלהם.

ללא AI, ההגנות מסתמכות על אנשים שעובדים יתר על המידה ומעקב אחר דפוסים מסוימים שתוכנתו מראש כדי למנוע התקפות. כלי הגנה של בינה מלאכותית יוכלו לחזות וקטורי תקיפה ולהצביע על אזורים רגישים ברשת ובמערכות. הם גם יוכלו לנתח קוד זדוני, ולאפשר הבנה טובה יותר של אופן פעולתן של התקפות חדשות וכיצד ניתן למנוע אותן.

בינה מלאכותית יכולה גם לעבוד, בקושי, כעצירת חירום - להשבית את הרשת לאחר זיהוי פריצה ונעילת המערכת כולה. למרות שזה לא אידיאלי מנקודת מבט של המשכיות עסקית, זה יכול להיות הרבה פחות מזיק מפרצת נתונים.

אבל להילחם בבינה מלאכותית עם בינה מלאכותית היא לא התשובה היחידה. אנחנו צריכים גם אינטליגנציה אנושית. לא משנה כמה חכמה וממוקדת, ההגנה הטובה ביותר מפני מתקפת פישינג היא עובד או לקוח שיודע מה לחפש וחשדן מספיק כדי לא לקחת את הפיתיון. הטמעת מדיניות אבטחה איתנה והיגיינת סייבר עם שיטות עבודה מומלצות יישארו המפתח להגנה מפני התקפות.

זה אומר שיהיה צורך לעדכן את ההכשרה כדי לכלול את הסימנים של התקפת בינה מלאכותית... יהיו אלו אשר יהיו. ההכשרה תצטרך להתפתח עם בינה מלאכותית - קורס הכשרה בודד כל כמה שנים לא יקצץ את זה יותר כאשר ההכשרה הזו לא מעודכנת במהירות.

בעוד שהסימנים האפשריים למתקפת סייבר מונעת בינה מלאכותית משתנים במהירות, באופן כללי, התקפות הן:

  • מהיר וניתן להרחבה, ניצול פגיעויות מרובות בפרק זמן קצר.
  • מסתגל ומתחמק, שינוי טקטיקות וטכניקות כדי להימנע מגילוי ותגובה.
  • ממוקד ומותאם אישית, שימוש בבינה מלאכותית ליצירת מיילים דיוגים משכנעים או קמפיינים של הנדסה חברתית.
  • מתעתע ומניפולטיבי, שימוש בבינה מלאכותית ליצירת תוכן מזויף או שונה כגון זיופים עמוקים, שיבוט קול או יצירת טקסט.
  • חמקני ומתמיד, מתחבא בתשתית הרשת במשך זמן רב מבלי שישימו לב.

הסימנים הללו אינם ממצים, וייתכן שחלק מהתקפות מונעות בינה מלאכותית לא יציגו את כולם. עם זאת, הם מעידים רמת האיום שה-AI מהווה לאבטחת הסייבר.

כדי להילחם ביעילות בהתקפות סייבר מונעות בינה מלאכותית, עסקים חייבים לחשוב מעבר לשחקנים רעים בודדים ולהתכונן להתקפות מתואמות של שחקנים בחסות המדינה או ארגוני פשע שעשויים להשתמש בבינה מלאכותית כדי להשיק קמפיינים מתוחכמים תוך שימוש בגישה מבוססת סיכונים. צריך שיהיה להם גם א אסטרטגיה יזומה זה כולל ביקורת אבטחה רגילה, גיבויים, הצפנה ותוכניות תגובה לאירועים. הדבר נעשה בצורה הקלה ביותר על ידי השגת אישור אבטחה ידוע כגון PCI-DSS.

לבסוף, הכרחי שארגונים ישפרו את אבטחת הסייבר של מערכות ה-AI שלהם על ידי הבטחת היושרה, הסודיות והזמינות שלהם, ועל ידי הפחתת הסיכונים של התקפות יריבות, הרעלת נתונים וגניבת מודלים.

אסטרטגיות אלה יסייעו להגן על עסקים, אבל הן לא צריכות להיות עצמאיות - האבטחה צריכה להיות שיתופית. על ידי שיתוף פעולה עם ארגונים אחרים, חוקרים ורשויות כדי לשתף מידע, שיטות עבודה מומלצות וכישלונות שניתן ללמוד מהם, עסקים יהיו מוכנים יותר לגל החדש של איומי אבטחת AI.

בינה מלאכותית היא גם איום חדש וגם המשך של איומים ישנים יותר. עסקים יצטרכו להתפתח כיצד הם מתמודדים עם איומי סייבר מכיוון שהאיומים הללו הופכים מתוחכמים יותר ורבים יותר, אבל הרבה מהיסודות נשארים זהים. ביצוע אלה נכונים עדיין קריטי. צוותי אבטחה לא צריכים להתרחק מרעיונות ישנים אלא לבנות עליהם כדי לשמור על בטיחות העסקים שלהם.

בול זמן:

עוד מ קריאה אפלה