CISA اور NCSC AI سیکورٹی کے معیار کو بڑھانے کے لیے کوششوں کی قیادت کرتے ہیں۔

CISA اور NCSC AI سیکورٹی کے معیار کو بڑھانے کے لیے کوششوں کی قیادت کرتے ہیں۔

CISA اور NCSC AI سیکورٹی کے معیارات PlatoBlockchain Data Intelligence کو بڑھانے کی کوششوں کی قیادت کرتے ہیں۔ عمودی تلاش۔ عی

برطانیہ کی نیشنل سائبر سیکیورٹی ایجنسی (NCSC) اور US کی سائبر سیکیورٹی اینڈ انفراسٹرکچر سیکیورٹی ایجنسی (CISA) نے AI ایپلیکیشنز کو محفوظ بنانے کے لیے سرکاری رہنمائی شائع کی ہے - ایک دستاویز جس سے ایجنسیوں کو امید ہے کہ حفاظت AI کی ترقی میں شامل ہے۔

برطانوی خفیہ ایجنسی کا کہنا ہے۔ رہنمائی کا دستاویز یہ اپنی نوعیت کا پہلا ہے اور 17 دیگر ممالک کی طرف سے اس کی توثیق کی جا رہی ہے۔

ڈرائیونگ اشاعت یہ ایک طویل عرصے سے جاری خوف ہے کہ سیکیورٹی ایک سوچا سمجھا جائے گا کیونکہ AI سسٹم فراہم کرنے والے AI کی ترقی کی رفتار کو برقرار رکھنے کے لیے کام کرتے ہیں۔

اس سال کے شروع میں NCSC میں سی ای او لِنڈی کیمرون نے کہا کہ ٹیکنالوجی کی صنعت کی تاریخ ہے کہ جب تکنیکی ترقی کی رفتار زیادہ ہو تو سیکیورٹی کو ثانوی خیال کے طور پر چھوڑ دیا جائے۔

آج، محفوظ AI سسٹم کی ترقی کے رہنما خطوط نے ایک بار پھر اس مسئلے کی طرف توجہ مبذول کرائی، اور مزید کہا کہ AI کو ہمیشہ نئے خطرات کا سامنا کرنا پڑے گا۔

کیمرون نے کہا، "ہم جانتے ہیں کہ AI غیر معمولی رفتار سے ترقی کر رہا ہے اور اس کو برقرار رکھنے کے لیے حکومتوں اور صنعتوں میں مشترکہ بین الاقوامی کارروائی کی ضرورت ہے۔"

"یہ رہنما خطوط AI کے ارد گرد سائبر خطرات اور تخفیف کی حکمت عملیوں کے بارے میں ایک حقیقی عالمی، عام فہم کو تشکیل دینے میں ایک اہم قدم کی نشاندہی کرتے ہیں تاکہ اس بات کو یقینی بنایا جا سکے کہ سیکورٹی ترقی کے لیے پوسٹ اسکرپٹ نہیں ہے بلکہ ایک بنیادی ضرورت ہے۔ 

"مجھے فخر ہے کہ NCSC AI سائبر سیکیورٹی بار کو بڑھانے کے لیے اہم کوششوں کی قیادت کر رہا ہے: ایک زیادہ محفوظ عالمی سائبر اسپیس اس ٹیکنالوجی کے شاندار مواقع کو محفوظ اور اعتماد کے ساتھ حاصل کرنے میں ہم سب کی مدد کرے گی۔"

رہنما خطوط ایک کو اپناتے ہیں۔ محفوظ بہ ڈیزائن نقطہ نظر، مثالی طور پر AI ڈویلپرز کو ترقی کے عمل کے تمام مراحل پر سائبر سے محفوظ ترین فیصلے کرنے میں مدد کرتا ہے۔ وہ زمین سے بنائی گئی ایپلی کیشنز پر اور موجودہ وسائل کے اوپری حصے پر بنی ایپلیکیشنز پر لاگو ہوں گے۔

ان ممالک کی مکمل فہرست جو رہنمائی کی توثیق کرتے ہیں، ان کے متعلقہ سائبر سیکیورٹی ایجنسیوں کے ساتھ، ذیل میں ہے:

  • آسٹریلیا – آسٹریلین سگنلز ڈائریکٹوریٹ کا آسٹریلین سائبر سیکیورٹی سینٹر (ACSC) 
  • کینیڈا - کینیڈین سینٹر فار سائبر سیکیورٹی (CCCS) 
  • چلی - چلی کی حکومت CSIRT
  • چیکیا - چیکیا کی نیشنل سائبر اینڈ انفارمیشن سیکیورٹی ایجنسی (NUKIB)
  • ایسٹونیا - ایسٹونیا کی انفارمیشن سسٹم اتھارٹی (RIA) اور نیشنل سائبر سیکیورٹی سینٹر آف ایسٹونیا (NCSC-EE)
  • فرانس - فرانسیسی سائبرسیکیوریٹی ایجنسی (ANSSI)
  • جرمنی - جرمنی کا وفاقی دفتر برائے انفارمیشن سیکیورٹی (BSI)
  • اسرائیل - اسرائیلی نیشنل سائبر ڈائریکٹوریٹ (INCD)
  • اٹلی - اطالوی نیشنل سائبرسیکیوریٹی ایجنسی (ACN)
  • جاپان – جاپان کا نیشنل سینٹر آف انڈینس ریڈی نیس اینڈ اسٹریٹیجی فار سائبرسیکیوریٹی (NISC؛ جاپان کا سائنس، ٹیکنالوجی اور انوویشن پالیسی کا سیکرٹریٹ، کابینہ آفس
  • نیوزی لینڈ - نیوزی لینڈ نیشنل سائبر سیکیورٹی سینٹر
  • نائیجیریا - نائیجیریا کی نیشنل انفارمیشن ٹیکنالوجی ڈویلپمنٹ ایجنسی (NITDA)
  • ناروے - نارویجن نیشنل سائبر سیکیورٹی سینٹر (NCSC-NO)
  • پولینڈ - پولینڈ کا NASK نیشنل ریسرچ انسٹی ٹیوٹ (NASK)
  • جمہوریہ کوریا - جمہوریہ کوریا نیشنل انٹیلی جنس سروس (NIS)
  • سنگاپور - سائبر سیکیورٹی ایجنسی آف سنگاپور (CSA)
  • یونائیٹڈ کنگڈم آف گریٹ برطانیہ اور شمالی آئرلینڈ - نیشنل سائبر سیکیورٹی سینٹر (NCSC)
  • ریاستہائے متحدہ امریکہ – سائبر سیکیورٹی اینڈ انفراسٹرکچر ایجنسی (CISA); نیشنل سیکورٹی ایجنسی (NSA؛ وفاقی تحقیقاتی بیورو (FBI)

ہدایات کو چار اہم فوکس ایریاز میں تقسیم کیا گیا ہے، جن میں سے ہر ایک AI ڈیولپمنٹ سائیکل کے ہر مرحلے کو بہتر بنانے کے لیے مخصوص تجاویز کے ساتھ ہے۔

1. محفوظ ڈیزائن

جیسا کہ عنوان سے پتہ چلتا ہے، رہنما خطوط یہ بتاتے ہیں کہ ترقی شروع ہونے سے پہلے ہی سیکیورٹی پر غور کیا جانا چاہیے۔ پہلا قدم AI سیکیورٹی کے خطرات اور ان کی تخفیف کے بارے میں عملے میں بیداری پیدا کرنا ہے۔ 

اس کے بعد ڈویلپرز کو اپنے سسٹم کو درپیش خطرات کا نمونہ بنانا چاہیے، ان کو بھی مستقبل میں پروف کرنے پر غور کرتے ہوئے، جیسے کہ ٹیکنالوجی کے زیادہ صارفین کو اپنی طرف متوجہ کرنے کے بعد آنے والے حفاظتی خطرات کی زیادہ تعداد کا حساب لگانا، اور مستقبل کی تکنیکی ترقیات جیسے خودکار حملے۔

حفاظتی فیصلے بھی ہر فعالیت کے فیصلے کے ساتھ کیے جانے چاہئیں۔ اگر ڈیزائن کے مرحلے میں ایک ڈویلپر کو معلوم ہے کہ AI اجزاء کچھ کارروائیوں کو متحرک کریں گے، تو سوالات پوچھے جانے کی ضرورت ہے کہ اس عمل کو کیسے محفوظ بنایا جائے۔ مثال کے طور پر، اگر AI فائلوں میں ترمیم کرے گا، تو اس صلاحیت کو صرف ایپلی کیشن کی مخصوص ضروریات تک محدود کرنے کے لیے ضروری حفاظتی اقدامات شامل کیے جائیں۔

2. محفوظ ترقی

ترقی کے مرحلے کو محفوظ بنانے میں سپلائی چین سیکیورٹی، مضبوط دستاویزات کو برقرار رکھنے، اثاثوں کی حفاظت، اور تکنیکی قرضوں کا انتظام کرنے کے بارے میں رہنمائی شامل ہے۔

سپلائی چین سیکیورٹی پچھلے کچھ سالوں سے محافظوں کے لیے ایک خاص توجہ کا مرکز رہی ہے، جس کے نتیجے میں ہائی پروفائل حملوں کا سلسلہ جاری ہے۔ متاثرین کی بڑی تعداد

اس بات کو یقینی بنانا کہ AI ڈویلپرز کے ذریعے استعمال ہونے والے وینڈرز کی تصدیق کی گئی ہے اور وہ اعلیٰ حفاظتی معیارات کے مطابق کام کرتے ہیں، جیسا کہ مشن کے اہم نظاموں کو مسائل کا سامنا کرنے کے لیے منصوبہ بندی کرنا ضروری ہے۔

3. محفوظ تعیناتی۔

محفوظ تعیناتی میں AI سسٹم کو سپورٹ کرنے کے لیے استعمال ہونے والے بنیادی ڈھانچے کی حفاظت شامل ہے، بشمول APIs، ماڈلز اور ڈیٹا کے لیے رسائی کے کنٹرول۔ اگر کوئی حفاظتی واقعہ ظاہر ہونا تھا تو، ڈویلپرز کو بھی جوابی اور تدارک کے منصوبے ہونے چاہئیں جو فرض کریں کہ مسائل ایک دن سامنے آئیں گے۔

ماڈل کی فعالیت اور وہ ڈیٹا جس پر اسے تربیت دی گئی تھی، کو مسلسل حملوں سے محفوظ رکھا جانا چاہیے، اور انہیں ذمہ داری کے ساتھ صرف اس صورت میں جاری کیا جانا چاہیے جب ان کا مکمل حفاظتی جائزہ لیا گیا ہو۔ 

AI سسٹمز کو صارفین کے لیے بطور ڈیفالٹ محفوظ رہنا آسان بنانا چاہیے، جہاں ممکن ہو سب سے زیادہ محفوظ آپشن یا کنفیگریشن کو تمام صارفین کے لیے ڈیفالٹ بنانا چاہیے۔ صارفین کے ڈیٹا کے استعمال، ذخیرہ اور رسائی کے طریقہ کار کے بارے میں شفافیت بھی اہم ہے۔

4. محفوظ آپریشن اور دیکھ بھال

آخری حصے میں AI سسٹمز کو تعینات کرنے کے بعد ان کو محفوظ بنانے کا طریقہ بتایا گیا ہے۔ 

نگرانی اس میں سے زیادہ تر کے مرکز میں ہے، چاہے یہ ان تبدیلیوں کو ٹریک کرنے کے لیے نظام کا طرز عمل ہے جو سیکیورٹی کو متاثر کر سکتی ہیں، یا سسٹم میں کیا ان پٹ ہے۔ رازداری اور ڈیٹا کے تحفظ کے تقاضوں کو پورا کرنے کے لیے نگرانی کی ضرورت ہوگی۔ لاگ ان غلط استعمال کی علامات کے لیے معلومات۔ 

اپ ڈیٹس کو خود بخود بھی ڈیفالٹ کے ذریعے جاری کیا جانا چاہیے تاکہ پرانے یا کمزور ورژن استعمال میں نہ ہوں۔ آخر میں، معلومات کا اشتراک کرنے والی کمیونٹیز میں ایک فعال شریک ہونے کی وجہ سے صنعت کو AI سیکورٹی کے خطرات کو سمجھنے میں مدد مل سکتی ہے، جس سے محافظوں کو تخفیف کے لیے مزید وقت مل سکتا ہے جس کے نتیجے میں ممکنہ بدنیتی پر مبنی کارناموں کو محدود کیا جا سکتا ہے۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر