چگونه هوش مصنوعی تهدیدات، کمبودهای امنیتی را حل می کند

چگونه هوش مصنوعی تهدیدات، کمبودهای امنیتی را حل می کند

چگونه هوش تهدید تقویت‌شده با هوش مصنوعی، کمبودهای امنیتی را حل می‌کند. جستجوی عمودی Ai.

عملیات امنیتی و تیم‌های اطلاعاتی تهدید به‌طور مزمن پرسنل کوتاهی دارند، غرق در داده‌ها هستند و با تقاضاهای رقیب سروکار دارند - همه مسائلی که سیستم‌های مدل بزرگ زبان (LLM) می‌توانند به رفع آنها کمک کنند. اما فقدان تجربه در مورد سیستم ها، بسیاری از شرکت ها را از پذیرش این فناوری باز می دارد.

سازمان‌هایی که LLM را پیاده‌سازی می‌کنند قادر خواهند بود اطلاعات را از داده‌های خام و قابلیت های تهدید-اطلاعاتی خود را تعمیق بخشند، اما چنین برنامه هایی برای تمرکز صحیح نیاز به حمایت رهبری امنیتی دارند. جان میلر، رئیس گروه تحلیل اطلاعات Mandiant می گوید، تیم ها باید LLM ها را برای مشکلات قابل حل پیاده سازی کنند، و قبل از اینکه بتوانند این کار را انجام دهند، باید کاربرد LLM ها را در محیط سازمان ارزیابی کنند.

میلر می‌گوید: «هدف ما کمک به سازمان‌ها برای عبور از عدم قطعیت است، زیرا هنوز داستان‌های موفقیت یا شکست زیادی وجود ندارد. «هنوز واقعاً پاسخ‌هایی وجود ندارد که مبتنی بر تجربه‌های معمول در دسترس باشد، و ما می‌خواهیم چارچوبی برای تفکر در مورد اینکه چگونه می‌توان به بهترین شکل به این نوع سؤالات در مورد تأثیر نگاه کرد، ارائه کنیم.»

در ارائه در کلاه سیاه آمریکا در اوایل ماه اوت، با عنوان "یک برنامه اطلاعاتی تهدید مبتنی بر LLM چگونه به نظر می رسد؟میلر و ران گراف، دانشمند داده در تیم تجزیه و تحلیل اطلاعاتی در Mandiant's Google Cloud، مناطقی را نشان خواهند داد که LLM ها می توانند کارکنان امنیتی را برای تسریع و تعمیق تجزیه و تحلیل امنیت سایبری تقویت کنند.

سه مؤلفه هوش تهدید

میلر به Dark Reading می‌گوید متخصصان امنیتی که می‌خواهند یک قابلیت اطلاعاتی تهدید قوی برای سازمان خود ایجاد کنند، برای ایجاد موفقیت‌آمیز عملکرد اطلاعات تهدید داخلی، به سه جزء نیاز دارند. آنها به داده هایی در مورد تهدیدات مرتبط نیاز دارند. قابلیت پردازش و استانداردسازی آن داده ها به گونه ای که مفید باشد. و توانایی تفسیر نحوه ارتباط آن داده ها با نگرانی های امنیتی.

گفتن این کار آسان‌تر از انجام آن است، زیرا تیم‌های اطلاعاتی تهدید - یا افراد مسئول اطلاعات تهدید - اغلب مملو از داده‌ها یا درخواست‌های ذینفعان هستند. او می‌گوید، با این حال، LLM‌ها می‌توانند به پر کردن شکاف کمک کنند و به گروه‌های دیگر در سازمان اجازه می‌دهند تا داده‌ها را با جستارهای زبان طبیعی درخواست کنند و اطلاعات را به زبان غیر فنی دریافت کنند. سؤالات متداول شامل روندها در حوزه های خاص تهدیدها، مانند باج افزار، یا زمانی که شرکت ها می خواهند درباره تهدیدات در بازارهای خاص بدانند.

میلر می‌گوید: «رهبرانی که موفق می‌شوند هوش تهدید خود را با قابلیت‌های مبتنی بر LLM تقویت کنند، اساساً می‌توانند برای بازگشت سرمایه بالاتر از عملکرد اطلاعات تهدید خود برنامه‌ریزی کنند. "آنچه یک رهبر می تواند انتظار داشته باشد در حالی که به آینده فکر می کند، و عملکرد اطلاعاتی فعلی آنها می تواند انجام دهد، ایجاد قابلیت بالاتر با همان منابع برای پاسخگویی به این سوالات است."

هوش مصنوعی نمی تواند جایگزین تحلیلگران انسانی شود

سازمان‌هایی که از LLM و اطلاعات تهدید تقویت‌شده با هوش مصنوعی استقبال می‌کنند، توانایی بهبود یافته‌ای برای تغییر و استفاده از مجموعه داده‌های امنیتی سازمانی خواهند داشت که در غیر این صورت بلااستفاده باقی می‌ماند. با این حال، دام هایی وجود دارد. تکیه بر LLM ها برای تولید تحلیل تهدید منسجم می تواند در زمان صرفه جویی کند، اما به عنوان مثال می تواند منجر به "توهمات" بالقوه - نقص LLM که در آن سیستم به لطف آموزش در مورد داده های نادرست یا از دست رفته، اتصالات را در جایی ایجاد می کند که هیچ پاسخی وجود ندارد یا به طور کامل پاسخ ساخته می شود.

میلر از Google Cloud می‌گوید: «اگر برای تصمیم‌گیری در مورد امنیت کسب‌وکارتان به خروجی یک مدل تکیه می‌کنید، پس می‌خواهید بتوانید تأیید کنید که شخصی به آن نگاه کرده است، با توانایی تشخیص اینکه آیا خطاهای اساسی وجود دارد یا خیر». "شما باید بتوانید مطمئن شوید که کارشناسانی دارید که واجد شرایط هستند، که می توانند برای سودمندی بینش در پاسخ به آن سوالات یا تصمیم گیری صحبت کنند."

به گفته Google Cloud's Graf، چنین مسائلی غیر قابل حل نیستند. سازمان‌ها می‌توانند مدل‌های رقیب را در کنار هم داشته باشند تا اساساً یکپارچگی را بررسی کنند و میزان توهم را کاهش دهند. علاوه بر این، پرسیدن سوالات به روش های بهینه - به اصطلاح "مهندسی سریع" - می تواند به پاسخ های بهتر یا حداقل پاسخ هایی که بیشترین هماهنگی را با واقعیت دارند، منجر شود.

گراف می‌گوید، با این حال، حفظ هوش مصنوعی با انسان، بهترین راه است.

او می‌گوید: «نظر ما این است که بهترین رویکرد فقط شامل کردن انسان‌ها در این حلقه است. و این به هر حال باعث بهبود عملکرد پایین‌دستی می‌شود، بنابراین سازمان‌ها همچنان از مزایای آن بهره می‌برند.»

این رویکرد تقویت شده است به دست آوردن کشش، به عنوان شرکت های امنیت سایبری به آن ملحق شده اند شرکت‌های دیگر در جستجوی راه‌هایی برای تغییر قابلیت‌های اصلی خود با LLM‌های بزرگ هستند. برای مثال در ماه مارس، مایکروسافت امنیت Copilot را راه اندازی کرد برای کمک به تیم‌های امنیت سایبری در بررسی نقض‌ها و جستجوی تهدیدها. و در ماه آوریل، شرکت اطلاعاتی تهدید Recorded Future یک قابلیت تقویت‌شده با LLM را معرفی کرد و دریافت که توانایی سیستم برای تبدیل داده‌های گسترده یا جستجوی عمیق به یک گزارش خلاصه دو یا سه جمله‌ای ساده برای تحلیلگر، مقدار قابل توجهی در زمان برای متخصصان امنیتی آن ذخیره کرده است.

جیمی زاجاک، معاون محصول در Recorded Future که می‌گوید هوش مصنوعی به انسان‌ها این امکان را می‌دهد که به سادگی در آن محیط مؤثرتر باشند، می‌گوید: «به نظر من، اساساً، هوش تهدید یک مشکل «داده‌های بزرگ» است و شما باید دید گسترده‌ای از تمام سطوح حمله به مهاجم، زیرساخت‌ها و افرادی که آنها را هدف قرار می‌دهند، داشته باشید. وقتی همه این داده‌ها را در اختیار دارید، با این مشکل مواجه می‌شوید که «چگونه می‌توانید این را در یک چیز مفید ترکیب کنید؟»، و ما متوجه شدیم که با استفاده از هوش ما و استفاده از مدل‌های زبانی بزرگ ... باعث صرفه‌جویی در ساعت‌ها و ساعت‌ها [تحلیل‌گران ما] شد.»

تمبر زمان:

بیشتر از تاریک خواندن