כיצד AI-Augmented Threat Intelligence פותר חסרונות אבטחה

כיצד AI-Augmented Threat Intelligence פותר חסרונות אבטחה

כיצד AI-Augmented Threat Intelligence פותר את חסרונות האבטחה של PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

צוותי פעולות אבטחה ומודיעין איומים מצומצמים באופן כרוני, מוצפים בנתונים ומתמודדים עם דרישות מתחרות - כל הבעיות שמערכות מודל שפה גדול (LLM) יכולות לעזור לתקן. אבל חוסר ניסיון עם המערכות מעכב חברות רבות מאימוץ הטכנולוגיה.

ארגונים המיישמים LLMs יוכלו לסנתז טוב יותר אינטליגנציה מנתונים גולמיים ו להעמיק את יכולות האיומים-מודיעין שלהם, אבל תוכניות כאלה זקוקות לתמיכה מהנהגת האבטחה כדי להיות ממוקדות בצורה נכונה. צוותים צריכים ליישם LLMs לבעיות הניתנות לפתרון, ולפני שהם יכולים לעשות זאת, הם צריכים להעריך את התועלת של LLMs בסביבה של ארגון, אומר ג'ון מילר, ראש קבוצת ניתוח המודיעין של Mandiant.

"מה שאנחנו מכוונים אליו הוא לעזור לארגונים לנווט את אי הוודאות, כי עדיין אין הרבה סיפורי הצלחה או סיפורי כישלון", אומר מילר. "עדיין אין באמת תשובות המבוססות על ניסיון זמין באופן שגרתי, ואנו רוצים לספק מסגרת לחשיבה כיצד לצפות בצורה הטובה ביותר לסוגי שאלות אלו על ההשפעה."

במצגת בשעה כובע שחור ארה"ב בתחילת אוגוסט, בשם "איך נראית תוכנית מודיעין איומים המופעלת על ידי LLM?", מילר ורון גרף, מדען נתונים בצוות ניתוח המודיעין ב-Google Cloud של Mandiant, ידגים את התחומים שבהם תלמידי LLM יכולים להגדיל את עובדי האבטחה כדי להאיץ ולהעמיק את ניתוח אבטחת הסייבר.

שלושה מרכיבים של מודיעין איומים

אנשי אבטחה שרוצים ליצור יכולת מודיעין איומים חזקה עבור הארגון שלהם צריכים שלושה מרכיבים כדי ליצור בהצלחה פונקציית מודיעין איומים פנימית, אומר מילר ל-Dark Reading. הם צריכים נתונים על האיומים הרלוונטיים; היכולת לעבד ולתקן את הנתונים כך שיהיו שימושיים; והיכולת לפרש כיצד נתונים אלה קשורים לדאגות אבטחה.

קל יותר לומר זאת מאשר לעשות זאת, מכיוון שצוותי מודיעין איומים - או אנשים האחראים על מודיעין איומים - מוצפים לעתים קרובות בנתונים או בקשות מבעלי עניין. עם זאת, LLMs יכולים לעזור לגשר על הפער, ולאפשר לקבוצות אחרות בארגון לבקש נתונים עם שאילתות שפה טבעית ולקבל את המידע בשפה לא טכנית, הוא אומר. שאלות נפוצות כוללות מגמות בתחומים ספציפיים של איומים, כגון תוכנות כופר, או כאשר חברות רוצות לדעת על איומים בשווקים ספציפיים.

"מנהיגים שמצליחים להגדיל את מודיעין האיומים שלהם עם יכולות מונעות LLM יכולים בעצם לתכנן החזר גבוה יותר על ההשקעה מפונקציית מודיעין האיומים שלהם", אומר מילר. "מה שמנהיג יכול לצפות כשהוא חושב קדימה, ומה שפונקציית המודיעין הנוכחית שלו יכולה לעשות, זה ליצור יכולת גבוהה יותר עם אותו משאבים כדי להיות מסוגל לענות על השאלות האלה."

AI לא יכול להחליף אנליסטים אנושיים

לארגונים המאמצים LLMs ומודיעין איומים מתוגבר בינה מלאכותית תהיה יכולת משופרת לשנות ולעשות שימוש במערך נתונים של אבטחה ארגונית שאם לא כן, לא היו נוצלים. ובכל זאת, יש מלכודות. הסתמכות על LLMs כדי לייצר ניתוח איומים קוהרנטי יכולה לחסוך זמן, אבל יכולה גם, למשל, להוביל ל "הזיות" פוטנציאליות - חסרון של LLMs שבו המערכת תיצור קשרים במקומות שאין בהם או תמציא תשובות לחלוטין, הודות להכשרה על נתונים שגויים או חסרים.

"אם אתה מסתמך על הפלט של מודל כדי לקבל החלטה לגבי אבטחת העסק שלך, אז אתה רוצה להיות מסוגל לאשר שמישהו הסתכל עליו, עם היכולת לזהות אם יש שגיאות בסיסיות, " אומר מילר של Google Cloud. "אתה צריך להיות מסוגל לוודא שיש לך מומחים מוסמכים, שיכולים לדבר על התועלת של התובנה במתן מענה לשאלות אלה או בקבלת החלטות אלה."

בעיות כאלה אינן בלתי פתירות, אומר גראף של גוגל קלאוד. ארגונים יכולים לשרשר מודלים מתחרים זה לזה כדי לבצע בדיקות תקינות ולהפחית את שיעור ההזיות. בנוסף, שאילת שאלות בדרכים אופטימליות - מה שנקרא "הנדסה מהירה" - יכולה להוביל לתשובות טובות יותר, או לפחות כאלה שהכי מתואמות את המציאות.

שמירה על AI בשילוב עם אדם, לעומת זאת, היא הדרך הטובה ביותר, אומר גראף.

"הדעה שלנו היא שהגישה הטובה ביותר היא רק לכלול בני אדם במעגל", הוא אומר. "וזה הולך להניב שיפורי ביצועים במורד הזרם בכל מקרה, כך שהארגונים עדיין קוטפים את היתרונות."

גישת הגדלה זו צברה אחיזה, כמו חברות אבטחת סייבר הצטרפו חברות אחרות בוחנות דרכים לשנות את יכולות הליבה שלהן עם LLMs גדולים. במרץ, למשל, מיקרוסופט השיקה את Security Copilot לעזור לצוותי אבטחת סייבר לחקור הפרות ולמצוד איומים. ובאפריל, חברת מודיעין האיומים Recorded Future הציגה יכולת משופרת של LLM, וגילתה שהיכולת של המערכת להפוך נתונים עצומים או חיפוש עמוק לדוח סיכום פשוט בן שניים או שלושה משפטים עבור האנליסט חסכה כמות משמעותית של זמן עבור אנשי מקצוע האבטחה שלה.

"ביסודו של דבר, מודיעין איומים, אני חושב, הוא בעיית 'ביג דאטה', וצריך להיות לך נראות נרחבת לכל רמות ההתקפה אל התוקף, אל התשתית ואל האנשים שהם מכוונים אליהם", אומר ג'יימי זייג'אק, סגן נשיא למוצר ב-Recorded Future, שאומר שבינה מלאכותית מאפשרת לבני אדם פשוט להיות יעילים יותר בסביבה הזו. "ברגע שיש לך את כל הנתונים האלה, יש לך את הבעיה של 'איך אתה בעצם מסנתז את זה למשהו שימושי?', וגילינו ששימוש באינטליגנציה שלנו ושימוש במודלים של שפה גדולים... התחיל לחסוך [לאנליסטים שלנו] שעות על גבי שעות של זְמַן."

בול זמן:

עוד מ קריאה אפלה