کس طرح AI-Augmented Threat Intelligence سیکیورٹی کی کمی کو دور کرتی ہے۔

کس طرح AI-Augmented Threat Intelligence سیکیورٹی کی کمی کو دور کرتی ہے۔

How AI-Augmented Threat Intelligence Solves Security Shortfalls PlatoBlockchain Data Intelligence. Vertical Search. Ai.

سیکیورٹی آپریشنز اور تھریٹ انٹیلی جنس ٹیمیں دائمی طور پر کم عملہ، ڈیٹا سے مغلوب، اور مسابقتی مطالبات سے نمٹتی ہیں - وہ تمام مسائل جن کے حل میں بڑی زبان کے ماڈل (LLM) سسٹم مدد کر سکتے ہیں۔ لیکن سسٹمز کے ساتھ تجربے کی کمی بہت سی کمپنیوں کو ٹیکنالوجی کو اپنانے سے روک رہی ہے۔

ایل ایل ایم کو نافذ کرنے والی تنظیمیں خام ڈیٹا سے ذہانت کی بہتر ترکیب کر سکیں گی اور ان کی دھمکی آمیز انٹیلی جنس صلاحیتوں کو گہرا کریں۔لیکن اس طرح کے پروگراموں کو صحیح طریقے سے توجہ مرکوز کرنے کے لیے سیکورٹی قیادت کی مدد کی ضرورت ہوتی ہے۔ مینڈینٹ کے انٹیلی جنس تجزیہ گروپ کے سربراہ جان ملر کا کہنا ہے کہ ٹیموں کو قابل حل مسائل کے لیے LLMs کو لاگو کرنا چاہیے، اور اس سے پہلے کہ وہ ایسا کر سکیں، انہیں تنظیم کے ماحول میں LLMs کی افادیت کا جائزہ لینے کی ضرورت ہے۔

ملر کا کہنا ہے کہ "ہم جس چیز کے لیے ہدف کر رہے ہیں وہ تنظیموں کو غیر یقینی صورتحال کو دور کرنے میں مدد کرنا ہے، کیونکہ ابھی تک کامیابی یا ناکامی کی بہت سی کہانیاں نہیں ہیں۔" "ابھی تک واقعی ایسے جوابات نہیں ہیں جو معمول کے مطابق دستیاب تجربے پر مبنی ہوں، اور ہم اس بارے میں سوچنے کے لیے ایک فریم ورک فراہم کرنا چاہتے ہیں کہ اثرات کے بارے میں اس قسم کے سوالات کا بہترین انتظار کیسے کیا جائے۔"

پر ایک پریزنٹیشن میں بلیک ہیٹ امریکہ اگست کے شروع میں، عنوان "ایل ایل ایم سے چلنے والا تھریٹ انٹیلی جنس پروگرام کیسا لگتا ہے؟ملر اور رون گراف، مینڈیئنٹ کے گوگل کلاؤڈ پر انٹیلی جنس اینالیٹکس ٹیم کے ایک ڈیٹا سائنسدان، ان شعبوں کا مظاہرہ کریں گے جہاں LLMs سائبرسیکیوریٹی تجزیہ کو تیز اور گہرا کرنے کے لیے سیکیورٹی کارکنوں کو بڑھا سکتے ہیں۔

تھریٹ انٹیلی جنس کے تین اجزاء

ملر ڈارک ریڈنگ کو بتاتا ہے کہ سیکورٹی کے پیشہ ور افراد جو اپنی تنظیم کے لیے ایک مضبوط خطرے کی انٹیلی جنس صلاحیت پیدا کرنا چاہتے ہیں، انہیں کامیابی کے ساتھ اندرونی خطرے کی انٹیلی جنس فنکشن بنانے کے لیے تین اجزاء کی ضرورت ہے۔ انہیں ان خطرات کے بارے میں ڈیٹا کی ضرورت ہے جو متعلقہ ہیں؛ اس ڈیٹا کو پروسیس کرنے اور معیاری بنانے کی صلاحیت تاکہ یہ مفید ہو۔ اور اس کی تشریح کرنے کی صلاحیت کہ اس ڈیٹا کا سیکیورٹی خدشات سے کیا تعلق ہے۔

یہ کہنے سے کہیں زیادہ آسان ہے، کیونکہ دھمکی آمیز انٹیلی جنس ٹیمیں - یا خطرے کی انٹیلی جنس کے انچارج افراد - اکثر ڈیٹا یا اسٹیک ہولڈرز کی درخواستوں سے مغلوب ہوتے ہیں۔ تاہم، ایل ایل ایم اس فرق کو پُر کرنے میں مدد کر سکتے ہیں، جس سے تنظیم کے دیگر گروپوں کو قدرتی زبان کے سوالات کے ساتھ ڈیٹا کی درخواست کرنے اور غیر تکنیکی زبان میں معلومات حاصل کرنے کی اجازت مل سکتی ہے۔ عام سوالات میں خطرات کے مخصوص علاقوں کے رجحانات شامل ہوتے ہیں، جیسے کہ ransomware، یا جب کمپنیاں مخصوص بازاروں میں خطرات کے بارے میں جاننا چاہتی ہیں۔

ملر کا کہنا ہے کہ "جو رہنما LLM سے چلنے والی صلاحیتوں کے ساتھ اپنی خطرے کی ذہانت کو بڑھانے میں کامیاب ہوتے ہیں وہ بنیادی طور پر اپنے خطرے کی ذہانت کے فنکشن سے سرمایہ کاری پر زیادہ منافع کے لیے منصوبہ بندی کر سکتے ہیں۔" "ایک رہنما آگے کی سوچ کے ساتھ کیا توقع کر سکتا ہے، اور ان کا موجودہ انٹیلی جنس کیا کام کر سکتا ہے، اسی وسائل کے ساتھ اعلیٰ صلاحیت پیدا کرنا ہے تاکہ وہ ان سوالات کا جواب دے سکے۔"

AI انسانی تجزیہ کاروں کی جگہ نہیں لے سکتا

وہ تنظیمیں جو LLMs اور AI-Augmented خطرے کی ذہانت کو اپناتی ہیں ان کے پاس انٹرپرائز سیکیورٹی ڈیٹاسیٹس کو تبدیل کرنے اور استعمال کرنے کی بہتر صلاحیت ہوگی جو بصورت دیگر استعمال نہیں کیے جائیں گے۔ پھر بھی، نقصانات ہیں. مربوط خطرے کا تجزیہ کرنے کے لیے LLMs پر انحصار کرنے سے وقت کی بچت ہو سکتی ہے، لیکن مثال کے طور پر، ممکنہ "ہیلوسینیشنز" - LLMs کی کمی جہاں غلط یا گمشدہ ڈیٹا پر تربیت حاصل کرنے کی بدولت سسٹم ایسے کنکشن بنائے گا جہاں کوئی نہیں ہے یا مکمل طور پر جوابات بناتا ہے۔

"اگر آپ اپنے کاروبار کی حفاظت کے بارے میں فیصلہ کرنے کے لیے کسی ماڈل کے آؤٹ پٹ پر انحصار کر رہے ہیں، تو آپ اس بات کی تصدیق کرنا چاہتے ہیں کہ کسی نے اسے دیکھا ہے، اس قابلیت کے ساتھ کہ اس میں کوئی بنیادی خامیاں ہیں، گوگل کلاؤڈ ملر کہتے ہیں۔ "آپ کو یہ یقینی بنانے کے قابل ہونے کی ضرورت ہے کہ آپ کے پاس ایسے ماہرین ہیں جو اہل ہیں، جو ان سوالات کے جوابات دینے یا ان فیصلے کرنے میں بصیرت کی افادیت کے لئے بات کر سکتے ہیں۔"

گوگل کلاؤڈ کے گراف کا کہنا ہے کہ اس طرح کے مسائل ناقابل تسخیر نہیں ہیں۔ بنیادی طور پر سالمیت کی جانچ پڑتال کرنے اور فریب کاری کی شرح کو کم کرنے کے لیے تنظیمیں مسابقتی ماڈلز کو ایک ساتھ باندھ سکتی ہیں۔ اس کے علاوہ، بہتر طریقے سے سوالات پوچھنا - جسے "پرامپٹ انجینئرنگ" کہا جاتا ہے - بہتر جوابات، یا کم از کم ایسے جوابات کا باعث بن سکتے ہیں جو حقیقت کے ساتھ سب سے زیادہ ہم آہنگ ہوں۔

گراف کا کہنا ہے کہ ایک AI کو انسان کے ساتھ جوڑا رکھنا، تاہم، بہترین طریقہ ہے۔

"یہ ہماری رائے ہے کہ بہترین طریقہ صرف انسانوں کو لوپ میں شامل کرنا ہے،" وہ کہتے ہیں۔ "اور اس سے بہرحال بہاو کی کارکردگی میں بہتری آئے گی، اس لیے تنظیمیں اب بھی فوائد حاصل کر رہی ہیں۔"

یہ اضافہ نقطہ نظر کرشن حاصل کر رہا ہے، کے طور پر سائبر سیکیورٹی فرموں نے شمولیت اختیار کی ہے۔ دیگر کمپنیاں بڑی LLMs کے ساتھ اپنی بنیادی صلاحیتوں کو تبدیل کرنے کے طریقے تلاش کر رہی ہیں۔ مارچ میں، مثال کے طور پر، مائیکروسافٹ سیکیورٹی کوپائلٹ کا آغاز کیا۔ سائبرسیکیوریٹی ٹیموں کو خلاف ورزیوں کی چھان بین اور دھمکیوں کی تلاش میں مدد کرنے کے لیے۔ اور اپریل میں، تھریٹ انٹیلی جنس فرم Recorded Future نے LLM کی بہتر صلاحیت کا آغاز کیا، جس سے معلوم ہوا کہ نظام کی وسیع ڈیٹا یا گہری تلاش کو ایک سادہ دو یا تین جملوں کی سمری رپورٹ میں تبدیل کرنے کی صلاحیت نے تجزیہ کار کے لیے کافی وقت بچایا ہے۔ اس کے سیکورٹی پروفیشنلز۔

"بنیادی طور پر، خطرے کی انٹیلی جنس، میرے خیال میں، ایک 'بگ ڈیٹا' کا مسئلہ ہے، اور آپ کو حملہ آور، انفراسٹرکچر، اور ان لوگوں میں جن کو وہ نشانہ بناتے ہیں، حملے کی تمام سطحوں میں وسیع مرئیت کی ضرورت ہے،" جیمی زجاک کہتے ہیں، Recorded Future میں پروڈکٹ کے نائب صدر، جو کہتے ہیں کہ AI انسانوں کو اس ماحول میں زیادہ موثر ہونے کی اجازت دیتا ہے۔ "ایک بار جب آپ کے پاس یہ سارا ڈیٹا ہو جاتا ہے، تو آپ کو یہ مسئلہ درپیش ہوتا ہے کہ 'آپ اسے کسی کارآمد چیز میں کیسے ترکیب کرتے ہیں؟'، اور ہم نے پایا کہ اپنی ذہانت کا استعمال کرتے ہوئے اور بڑے زبان کے ماڈلز کا استعمال کرتے ہوئے … [ہمارے تجزیہ کاروں] کے گھنٹوں اور گھنٹوں کی بچت شروع کردی۔ وقت۔"

ٹائم اسٹیمپ:

سے زیادہ گہرا پڑھنا