اپنے سائبرسیکیوریٹی پروگراموں میں AI کو محفوظ طریقے سے آرکیٹیکٹ کیسے کریں۔

اپنے سائبرسیکیوریٹی پروگراموں میں AI کو محفوظ طریقے سے آرکیٹیکٹ کیسے کریں۔

How to Safely Architect AI in Your Cybersecurity Programs PlatoBlockchain Data Intelligence. Vertical Search. Ai.

جون کے آخر میں، سائبرسیکیوریٹی فرم گروپ-آئی بی نے ایک قابل ذکر انکشاف کیا۔ سیکیورٹی کی خلاف ورزی جس نے ChatGPT اکاؤنٹس کو متاثر کیا۔. کمپنی نے حیران کن 100,000 سمجھوتہ کرنے والے آلات کی نشاندہی کی، جن میں سے ہر ایک کے پاس ChatGPT اسناد ہیں جو بعد میں پچھلے سال کے دوران غیر قانونی ڈارک ویب مارکیٹ پلیس پر تجارت کی گئیں۔ اس خلاف ورزی نے چیٹ جی پی ٹی اکاؤنٹس کی سمجھوتہ شدہ سیکیورٹی کو حل کرنے پر فوری توجہ دینے کا مطالبہ کیا، کیونکہ حساس معلومات پر مشتمل تلاش کے سوالات ہیکرز کے سامنے آ جاتے ہیں۔

ایک اور واقعے میں، ایک ماہ سے بھی کم عرصے کے اندر، سام سنگ کو تین دستاویزی واقعات کا سامنا کرنا پڑا جس میں ملازمین نادانستہ طور پر چیٹ جی پی ٹی کے ذریعے حساس معلومات کو لیک کیا گیا۔. چونکہ ChatGPT اپنی کارکردگی کو بہتر بنانے کے لیے صارف کے ان پٹ ڈیٹا کو برقرار رکھتا ہے، اس لیے سام سنگ سے تعلق رکھنے والے یہ قیمتی تجارتی راز اب OpenAI کے قبضے میں ہیں، جو AI سروس کے پیچھے ہے۔ اس سے سام سنگ کی ملکیتی معلومات کی رازداری اور حفاظت کے حوالے سے اہم خدشات پیدا ہوتے ہیں۔

EU کے جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) کے ساتھ ChatGPT کی تعمیل کے بارے میں اس طرح کے خدشات کی وجہ سے، جو ڈیٹا اکٹھا کرنے اور استعمال کرنے کے لیے سخت رہنما خطوط کو لازمی قرار دیتا ہے، اٹلی نے ملک گیر پابندی عائد کر دی ہے۔ ChatGPT کے استعمال پر۔

AI اور جنریٹیو AI ایپلی کیشنز میں تیزی سے ترقی نے کاروباری ذہانت، مصنوعات اور آپریشنز میں ترقی کو تیز کرنے کے نئے مواقع کھولے ہیں۔ لیکن سائبرسیکیوریٹی پروگرام کے مالکان کو قوانین کے تیار ہونے کا انتظار کرتے ہوئے ڈیٹا کی رازداری کو یقینی بنانا ہوگا۔

پبلک انجن بمقابلہ پرائیویٹ انجن

تصورات کو بہتر طور پر سمجھنے کے لیے، آئیے پبلک AI اور پرائیویٹ AI کی تعریف کرتے ہوئے شروع کریں۔ عوامی AI سے مراد عوامی طور پر قابل رسائی AI سافٹ ویئر ایپلی کیشنز ہیں جنہیں ڈیٹا سیٹس پر تربیت دی گئی ہے، جو اکثر صارفین یا صارفین سے حاصل کی جاتی ہیں۔ عوامی AI کی ایک اہم مثال ChatGPT ہے، جو انٹرنیٹ سے عوامی طور پر دستیاب ڈیٹا کا فائدہ اٹھاتا ہے، بشمول ٹیکسٹ آرٹیکلز، تصاویر اور ویڈیوز۔

عوامی AI الگورتھم کو بھی گھیر سکتا ہے جو ڈیٹا سیٹس کا استعمال کرتے ہیں جو مخصوص صارف یا تنظیم کے لیے مخصوص نہیں ہوتے۔ اس کے نتیجے میں، عوامی AI کے صارفین کو آگاہ ہونا چاہیے کہ ان کا ڈیٹا مکمل طور پر نجی نہیں رہ سکتا ہے۔

دوسری طرف، نجی AI میں ڈیٹا پر تربیتی الگورتھم شامل ہوتا ہے جو کسی خاص صارف یا تنظیم کے لیے منفرد ہوتا ہے۔ اس صورت میں، اگر آپ مخصوص ڈیٹا سیٹ، جیسے انوائس یا ٹیکس فارمز کا استعمال کرتے ہوئے کسی ماڈل کو تربیت دینے کے لیے مشین لرننگ سسٹم استعمال کرتے ہیں، تو وہ ماڈل آپ کی تنظیم کے لیے مخصوص رہتا ہے۔ پلیٹ فارم وینڈرز آپ کے ڈیٹا کو اپنے ماڈلز کی تربیت کے لیے استعمال نہیں کرتے ہیں، اس لیے پرائیویٹ AI آپ کے حریفوں کی مدد کے لیے آپ کے ڈیٹا کے کسی بھی استعمال کو روکتا ہے۔

AI کو تربیتی پروگراموں اور پالیسیوں میں ضم کریں۔

بہترین طریقوں پر عمل کرتے ہوئے AI ایپلیکیشنز کو ان کی مصنوعات اور خدمات میں استعمال کرنے، تیار کرنے اور ان کو مربوط کرنے کے لیے، سائبر سیکیورٹی کے عملے کو درج ذیل پالیسیوں کو عملی جامہ پہنانا چاہیے۔

صارف کی آگاہی اور تعلیم: صارفین کو AI کے استعمال سے منسلک خطرات کے بارے میں آگاہ کریں اور حساس معلومات کی ترسیل کے دوران محتاط رہنے کی ترغیب دیں۔ محفوظ مواصلاتی طریقوں کو فروغ دیں اور صارفین کو AI سسٹم کی صداقت کی تصدیق کرنے کا مشورہ دیں۔

  • ڈیٹا مائنسائزیشن: صرف AI انجن کو کام کو پورا کرنے کے لیے ضروری ڈیٹا کی کم از کم مقدار فراہم کریں۔ غیر ضروری یا حساس معلومات کو شیئر کرنے سے گریز کریں جو AI پروسیسنگ سے متعلق نہیں ہے۔
  • گمنامی اور غیر شناخت: جب بھی ممکن ہو، ڈیٹا کو AI انجن میں داخل کرنے سے پہلے اسے گمنام یا ڈی شناخت کریں۔ اس میں ذاتی طور پر قابل شناخت معلومات (PII) یا کسی دوسرے حساس صفات کو ہٹانا شامل ہے جو AI پروسیسنگ کے لیے ضروری نہیں ہے۔

محفوظ ڈیٹا ہینڈلنگ کے طریقے: اپنے حساس ڈیٹا کو سنبھالنے کے لیے سخت پالیسیاں اور طریقہ کار قائم کریں۔ صرف مجاز اہلکاروں تک رسائی کو محدود کریں اور غیر مجاز رسائی کو روکنے کے لیے مضبوط تصدیقی طریقہ کار کو نافذ کریں۔ ڈیٹا پرائیویسی کے بہترین طریقوں پر ملازمین کو تربیت دیں اور ڈیٹا تک رسائی اور استعمال کو ٹریک کرنے کے لیے لاگنگ اور آڈیٹنگ کے طریقہ کار کو نافذ کریں۔

برقرار رکھنا اور ضائع کرنا: ڈیٹا برقرار رکھنے کی پالیسیوں کی وضاحت کریں اور ڈیٹا کو محفوظ طریقے سے ٹھکانے لگائیں جب اس کی مزید ضرورت نہ رہے۔ مناسب طریقے سے نافذ کریں۔ ڈیٹا کو ضائع کرنے کا طریقہ کار، جیسے کہ محفوظ حذف کرنا یا کرپٹوگرافک مٹنا، اس بات کو یقینی بنانے کے لیے کہ ڈیٹا کی مزید ضرورت نہ ہونے کے بعد اسے بازیافت نہیں کیا جا سکتا۔

قانونی اور تعمیل کے تحفظات: AI انجن میں آپ جو ڈیٹا ڈال رہے ہیں اس کے قانونی اثرات کو سمجھیں۔ اس بات کو یقینی بنائیں کہ جس طرح سے صارفین AI کو استعمال کرتے ہیں وہ متعلقہ ضوابط کی تعمیل کرتا ہے، جیسے ڈیٹا پروٹیکشن قوانین یا صنعت کے مخصوص معیارات۔

وینڈر کی تشخیص: اگر آپ تھرڈ پارٹی وینڈر کی طرف سے فراہم کردہ AI انجن استعمال کر رہے ہیں، تو ان کے حفاظتی اقدامات کا مکمل جائزہ لیں۔ اس بات کو یقینی بنائیں کہ وینڈر ڈیٹا سیکیورٹی اور رازداری کے لیے انڈسٹری کے بہترین طریقوں کی پیروی کرتا ہے، اور یہ کہ آپ کے ڈیٹا کی حفاظت کے لیے ان کے پاس مناسب حفاظتی اقدامات موجود ہیں۔ آئی ایس او اور ایس او سی کی توثیق، مثال کے طور پر، ایک وینڈر کے تسلیم شدہ معیارات پر عمل کرنے اور معلومات کی حفاظت کے لیے ان کی وابستگی کی قابل قدر تیسرے فریق کی توثیق فراہم کرتی ہے۔

AI قابل قبول استعمال کی پالیسی (AUP) کو باقاعدہ بنائیں: AI قابل قبول استعمال کی پالیسی کو AI ٹیکنالوجیز کے ذمہ دارانہ اور اخلاقی استعمال پر زور دیتے ہوئے پالیسی کے مقاصد اور مقاصد کا خاکہ پیش کرنا چاہیے۔ اسے AI کے استعمال کے لیے دائرہ کار اور حدود کی وضاحت کرتے ہوئے قابل قبول استعمال کے معاملات کی وضاحت کرنی چاہیے۔ AUP کو AI کے استعمال میں شفافیت، جوابدہی، اور ذمہ دارانہ فیصلہ سازی کی حوصلہ افزائی کرنی چاہیے، تنظیم کے اندر اخلاقی AI طریقوں کی ثقافت کو فروغ دینا چاہیے۔ باقاعدگی سے جائزے اور اپ ڈیٹس AI ٹیکنالوجیز اور اخلاقیات کے لیے پالیسی کی مطابقت کو یقینی بناتے ہیں۔

نتیجہ

ان ہدایات پر عمل کرتے ہوئے، پروگرام کے مالکان حساس معلومات کی حفاظت کرتے ہوئے اور اخلاقی اور پیشہ ورانہ معیارات کو برقرار رکھتے ہوئے مؤثر طریقے سے AI ٹولز کا فائدہ اٹھا سکتے ہیں۔ درستگی کے لیے AI سے تیار کردہ مواد کا جائزہ لینا بہت ضروری ہے جبکہ بیک وقت ان پٹ ڈیٹا کی حفاظت کرتے ہوئے جو جوابی اشارے پیدا کرنے میں جاتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ گہرا پڑھنا