GPT-4 مشورے پڑھ کر حقیقی کمزوریوں کا فائدہ اٹھا سکتا ہے۔

GPT-4 مشورے پڑھ کر حقیقی کمزوریوں کا فائدہ اٹھا سکتا ہے۔

GPT-4 PlatoBlockchain ڈیٹا انٹیلی جنس کے مشورے پڑھ کر حقیقی کمزوریوں کا فائدہ اٹھا سکتا ہے۔ عمودی تلاش۔ عی

ماہرین تعلیم نے دعویٰ کیا ہے کہ اے آئی ایجنٹس، جو بڑے زبان کے ماڈلز کو آٹومیشن سوفٹ ویئر کے ساتھ جوڑتے ہیں، سیکیورٹی ایڈوائزری کو پڑھ کر حقیقی دنیا کی سیکیورٹی کی کمزوریوں کا کامیابی سے فائدہ اٹھا سکتے ہیں۔

ایک نئے جاری کردہ میں کاغذ، چار یونیورسٹی آف الینوائے اربانا-چمپین (UIUC) کے کمپیوٹر سائنس دان - رچرڈ فینگ، روہن بندو، اکول گپتا، اور ڈینیل کانگ - رپورٹ کرتے ہیں کہ OpenAI کا GPT-4 بڑے زبان کا ماڈل (LLM) اگر دیا جائے تو وہ حقیقی دنیا کے نظاموں میں خود مختاری سے کمزوریوں کا فائدہ اٹھا سکتا ہے۔ ایک CVE ایڈوائزری جو خامی کو بیان کرتی ہے۔

امریکہ میں مقیم مصنفین نے اپنے مقالے میں وضاحت کرتے ہوئے کہا، "اس کو دکھانے کے لیے، ہم نے 15 ایک دن کے خطرات کا ڈیٹاسیٹ اکٹھا کیا جس میں CVE کی تفصیل میں اہم شدت کے طور پر درجہ بندی کی گئی ہیں۔"

"جب CVE کی تفصیل دی جائے تو، GPT-4 ان کمزوریوں میں سے 87 فیصد سے فائدہ اٹھانے کی صلاحیت رکھتا ہے جب کہ 0 فیصد ہر دوسرے ماڈل کے لیے جو ہم ٹیسٹ کرتے ہیں (GPT-3.5، اوپن سورس LLMs) اور اوپن سورس کمزوری اسکینرز (ZAP اور Metasploit) "

اگر آپ اس بات کو بڑھاتے ہیں کہ مستقبل کے ماڈل کیا کر سکتے ہیں، تو ایسا لگتا ہے کہ وہ اس سے کہیں زیادہ قابل ہوں گے جو اسکرپٹ کے بچے آج تک رسائی حاصل کر سکتے ہیں۔

اصطلاح "ایک دن کی کمزوری" سے مراد وہ کمزوریاں ہیں جن کا انکشاف کیا گیا ہے لیکن پیچ نہیں کیا گیا ہے۔ اور CVE کی تفصیل سے، ٹیم کا مطلب ہے NIST کے ذریعے اشتراک کردہ CVE-ٹیگ شدہ ایڈوائزری - جیسے، اس CVE-2024-28859 کے لیے۔

ناکام ماڈلز کا تجربہ کیا گیا – GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B)، LLaMA-2 Chat (13B)، LLaMA-2 Chat (7B)، Mixtral-8x7B انسٹرکٹ، Mistral (7B) Instruct v0.2، Nous Hermes-2 Yi 34B، اور OpenChat 3.5 – میں GPT-4 کے دو سرکردہ تجارتی حریف، Anthropic's Claude 3 اور Google کے Gemini 1.5 Pro شامل نہیں تھے۔ UIUC بوفنز کو ان ماڈلز تک رسائی حاصل نہیں تھی، حالانکہ وہ امید کرتے ہیں کہ وہ کسی وقت ان کی جانچ کریں گے۔

محققین کا کام اس پر استوار ہوتا ہے۔ پہلے کے نتائج کہ LLMs کو سینڈ باکس والے ماحول میں ویب سائٹس پر خودکار حملوں کے لیے استعمال کیا جا سکتا ہے۔

GPT-4، UIUC کے اسسٹنٹ پروفیسر ڈینیئل کانگ نے ایک ای میل میں کہا رجسٹر، "حقیقت میں خود مختار طور پر کچھ کارنامے انجام دینے کے لئے اقدامات انجام دے سکتا ہے جو اوپن سورس کمزوری اسکینرز (تحریر کے وقت) تلاش نہیں کرسکتے ہیں۔"

کانگ نے کہا کہ وہ ایل ایل ایم ایجنٹوں کی توقع کرتا ہے، جو (اس مثال میں) چیٹ بوٹ ماڈل کو وائرنگ کے ذریعے بنایا گیا ہے۔ ReAct LangChain میں لاگو آٹومیشن فریم ورک، ہر کسی کے لیے استحصال کو بہت آسان بنا دے گا۔ یہ ایجنٹس، ہمیں بتایا جاتا ہے، مزید معلومات کے لیے CVE کی تفصیل میں لنکس کی پیروی کر سکتے ہیں۔

"اس کے علاوہ، اگر آپ GPT-5 اور مستقبل کے ماڈلز کیا کر سکتے ہیں اس کو بڑھاتے ہیں، تو ایسا لگتا ہے کہ وہ اس سے کہیں زیادہ قابل ہوں گے جو اسکرپٹ کے بچے آج تک رسائی حاصل کر سکتے ہیں،" انہوں نے کہا۔

LLM ایجنٹ (GPT-4) کو متعلقہ CVE تفصیل تک رسائی سے انکار کرنے سے اس کی کامیابی کی شرح 87 فیصد سے کم ہو کر صرف سات فیصد رہ گئی۔ تاہم، کانگ نے کہا کہ وہ اس بات پر یقین نہیں رکھتے کہ حفاظتی معلومات کی عوامی دستیابی کو محدود کرنا LLM ایجنٹوں کے خلاف دفاع کا ایک قابل عمل طریقہ ہے۔

"میں ذاتی طور پر نہیں سمجھتا کہ مبہمیت کے ذریعے سیکیورٹی قابل عمل ہے، جو سیکیورٹی محققین کے درمیان غالب حکمت معلوم ہوتی ہے،" انہوں نے وضاحت کی۔ "میں امید کر رہا ہوں کہ میرا کام، اور دیگر کام، فعال حفاظتی اقدامات کی حوصلہ افزائی کریں گے جیسے کہ سیکیورٹی پیچز سامنے آنے پر پیکجوں کو باقاعدگی سے اپ ڈیٹ کرنا۔"

LLM ایجنٹ 15 میں سے صرف دو نمونوں کا استحصال کرنے میں ناکام رہا: Iris XSS (CVE-2024-25640) اور Hertzbeat RCE (CVE-2023-51653)۔ کاغذ کے مطابق سابقہ، مشکل ثابت ہوا کیونکہ Iris ویب ایپ کا ایک انٹرفیس ہے جو ایجنٹ کے لیے نیویگیٹ کرنا انتہائی مشکل ہے۔ اور مؤخر الذکر چینی زبان میں ایک تفصیلی وضاحت پیش کرتا ہے، جس نے ممکنہ طور پر انگریزی زبان کے اشارے کے تحت کام کرنے والے LLM ایجنٹ کو الجھن میں ڈال دیا ہے۔

جانچ کی گئی کمزوریوں میں سے گیارہ GPT-4 کے تربیتی کٹ آف کے بعد واقع ہوئی ہیں، یعنی ماڈل نے تربیت کے دوران ان کے بارے میں کوئی ڈیٹا نہیں سیکھا تھا۔ ان CVEs کے لیے اس کی کامیابی کی شرح 82 فیصد، یا 9 میں سے 11 پر قدرے کم تھی۔

کیڑے کی نوعیت کے بارے میں، وہ سب مندرجہ بالا مقالے میں درج ہیں، اور ہمیں بتایا گیا ہے: "ہماری کمزوریاں ویب سائٹ کی کمزوریوں، کنٹینر کی کمزوریوں، اور Python پیکجوں پر محیط ہیں۔ نصف سے زیادہ کو CVE کی تفصیل کے مطابق 'اعلی' یا 'تنقیدی' شدت کے طور پر درجہ بندی کیا گیا ہے۔

کانگ اور اس کے ساتھیوں نے LLM ایجنٹ کے کامیاب حملے کے لیے لاگت کا حساب لگایا اور فی استحصال $8.80 کا اعداد و شمار لے کر آئے، جو ان کے بقول 2.8 منٹ کے لیے انسانی دخول ٹیسٹر کی خدمات حاصل کرنے کی لاگت سے تقریباً 30x کم ہے۔

ایجنٹ کوڈ، کانگ کے مطابق، کوڈ کی صرف 91 لائنوں اور پرامپٹ کے لیے 1,056 ٹوکنز پر مشتمل ہے۔ GPT-4 بنانے والی کمپنی OpenAI نے محققین سے کہا کہ وہ عوام کے لیے اپنے اشارے جاری نہ کریں، حالانکہ ان کا کہنا ہے کہ وہ درخواست پر فراہم کریں گے۔

OpenAI نے فوری طور پر تبصرہ کی درخواست کا جواب نہیں دیا۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر