آپ کو اپنے AI کا نسب جاننے کی ضرورت کیوں ہے۔

آپ کو اپنے AI کا نسب جاننے کی ضرورت کیوں ہے۔

آپ کو اپنے AI کا نسب پلاٹو بلاکچین ڈیٹا انٹیلی جنس کیوں جاننے کی ضرورت ہے۔ عمودی تلاش۔ عی

COMMENTARY

مصنوعی ذہانت (AI) ہماری روزمرہ کی زندگی کے تقریباً ہر پہلو کو تیزی سے تبدیل کر رہی ہے، جس میں ہم کیسے کام کرتے ہیں، اس سے لے کر کہ ہم اپنے لیڈروں کا تعین کیسے کرتے ہیں۔ کسی بھی ٹیکنالوجی کی طرح، AI اخلاقی ہے، لیکن معاشرے کو آگے بڑھانے کے لیے استعمال کیا جا سکتا ہے یا نقصان پہنچانا.

ڈیٹا وہ جین ہے جو AI ایپلی کیشنز کو طاقت دیتا ہے۔ یہ ڈی این اے اور آر این اے سب ایک میں لپٹے ہوئے ہیں۔ جیسا کہ سافٹ ویئر سسٹم بناتے وقت اکثر کہا جاتا ہے: "کچرا اندر/کوڑا پھینکنا۔" AI ٹیکنالوجی صرف اتنی ہی درست، محفوظ اور فعال ہے جتنی کہ ڈیٹا کے ذرائع پر انحصار کرتی ہے۔ اس بات کو یقینی بنانے کی کلید کہ AI اپنے وعدے کو پورا کرتا ہے اور اپنے ڈراؤنے خوابوں سے بچتا ہے کوڑے کو باہر رکھنے اور اسے لاکھوں AI ایپلی کیشنز میں پھیلنے اور نقل کرنے سے روکنے کی صلاحیت میں مضمر ہے۔

اسے ڈیٹا پرووینس کہا جاتا ہے، اور ہم ایسے کنٹرولز کو نافذ کرنے کے لیے ایک اور دن انتظار نہیں کر سکتے جو ہمارے AI مستقبل کو کوڑے دان کے بڑے ڈھیر بننے سے روکتے ہیں۔

خراب ڈیٹا AI ماڈلز کی طرف لے جاتا ہے جو سیکنڈوں میں عالمی سطح پر سائبر سیکیورٹی کے خطرات، غلط معلومات اور دیگر حملوں کا پرچار کر سکتے ہیں۔ آج کا پیدا کرنے والا AI (GenAI) ماڈلز ناقابل یقین حد تک پیچیدہ ہیں، لیکن، بنیادی طور پر، GenAI ماڈل صرف موجودہ پچھلے ڈیٹا کے ایک سیٹ کو دیکھتے ہوئے، آؤٹ پٹ کے لیے ڈیٹا کے بہترین اگلے حصے کی پیش گوئی کر رہے ہیں۔

درستگی کی پیمائش

چیٹ جی پی ٹی قسم کا ماڈل ان الفاظ کے سیٹ کا جائزہ لیتا ہے جو پوچھے گئے اصل سوال کو بناتے ہیں اور ماڈل کے جواب میں اب تک کے تمام الفاظ آؤٹ پٹ کے لیے اگلے بہترین لفظ کا حساب لگاتے ہیں۔ یہ اس وقت تک بار بار کرتا ہے جب تک کہ یہ فیصلہ نہ کر لے کہ اس نے کافی جواب دیا ہے۔ فرض کریں کہ آپ ماڈل کی قابلیت کا اندازہ لگاتے ہیں کہ وہ الفاظ کو ایک ساتھ جوڑتے ہیں جو اچھی طرح سے بنائے گئے، گرامر کے لحاظ سے درست جملے بناتے ہیں جو موضوع پر ہیں اور عام طور پر گفتگو سے متعلق ہیں۔ اس صورت میں، آج کے ماڈل حیرت انگیز طور پر اچھے ہیں - درستگی کی پیمائش۔

گہرائی میں غوطہ لگائیں۔ چاہے AI سے تیار کردہ متن ہمیشہ "درست" معلومات فراہم کرتا ہو۔ اور مناسب طور پر پہنچائی گئی معلومات کے اعتماد کی سطح کی نشاندہی کرتا ہے۔ یہ ان مسائل سے پردہ اٹھاتا ہے جو ماڈلز سے آتے ہیں جو اوسطاً بہت اچھی پیش گوئی کرتے ہیں، لیکن کنارے کے معاملات میں اتنی اچھی نہیں - ایک مضبوطی کے مسئلے کی نمائندگی کرتے ہیں۔ جب AI ماڈلز سے ناقص ڈیٹا آؤٹ پٹ کو آن لائن اسٹور کیا جاتا ہے اور ان اور دیگر ماڈلز کے لیے مستقبل کے تربیتی ڈیٹا کے طور پر استعمال کیا جاتا ہے تو اس میں اضافہ کیا جا سکتا ہے۔

ناقص آؤٹ پٹ اس پیمانے پر نقل کر سکتے ہیں جسے ہم نے کبھی نہیں دیکھا ہے، جس کی وجہ سے نیچے کی طرف AI ڈوم لوپ ہوتا ہے۔

اگر کوئی برا اداکار اس عمل میں مدد کرنا چاہتا ہے، تو وہ جان بوجھ کر اضافی خراب ڈیٹا کو تیار کرنے، ذخیرہ کرنے اور پھیلانے کی ترغیب دے سکتا ہے - جس کی وجہ سے چیٹ بوٹس سے اور بھی زیادہ غلط معلومات سامنے آتی ہیں، یا آٹوموبائل آٹو پائلٹ ماڈلز کی طرح منفی اور خوفناک چیز کا فیصلہ کرتے ہیں راستے میں اشیاء ہونے کے باوجود گاڑی کو تیزی سے دائیں طرف لے جائیں اگر وہ اپنے سامنے خاص طور پر تیار کردہ تصویر کو "دیکھیں" (قیاس کے مطابق)۔

کئی دہائیوں کے بعد، سافٹ ویئر ڈویلپمنٹ انڈسٹری – جس کی قیادت سائبرسیکیوریٹی انفراسٹرکچر سیکیورٹی ایجنسی کر رہی ہے – آخر کار اس پر عمل درآمد کر رہی ہے۔ محفوظ بہ ڈیزائن فریم ورک. محفوظ بہ ڈیزائن یہ حکم دیتا ہے کہ سائبرسیکیوریٹی سافٹ ویئر کی ترقی کے عمل کی بنیاد ہے، اور اس کے بنیادی اصولوں میں سے ایک سافٹ ویئر کی ترقی کے ہر جزو کی فہرست سازی کی ضرورت ہے۔ مواد کا سافٹ ویئر بل (SBOM) - سلامتی اور لچک کو بڑھانے کے لیے۔ آخر میں، سیکورٹی سب سے اہم جانے والے مارکیٹ عنصر کے طور پر رفتار کی جگہ لے رہی ہے۔

AI ڈیزائنز کو محفوظ بنانا

AI کو کچھ اسی طرح کی ضرورت ہے۔ AI فیڈ بیک لوپ ماضی کی عام سائبرسیکیوریٹی دفاعی تکنیکوں کو روکتا ہے، جیسے کہ میلویئر کے دستخطوں کا سراغ لگانا، نیٹ ورک کے وسائل کے گرد دائرہ بنانا، یا کمزوریوں کے لیے انسانی تحریری کوڈ کو اسکین کرنا۔ ہمیں ٹکنالوجی کے بچپن میں ہی محفوظ AI ڈیزائن کو لازمی بنانا چاہیے تاکہ پنڈورا باکس کے کھلنے سے بہت پہلے AI کو محفوظ بنایا جا سکے۔

تو، ہم اس مسئلے کو کیسے حل کرتے ہیں؟ ہمیں علمی دنیا سے ایک صفحہ نکالنا چاہیے۔ ہم طلباء کو انتہائی تیار شدہ تربیتی ڈیٹا کے ساتھ تربیت دیتے ہیں، اساتذہ کی ایک صنعت کے ذریعے ان کی ترجمانی اور ان تک پہنچاتے ہیں۔ ہم بالغوں کو سکھانے کے لیے یہ طریقہ جاری رکھتے ہیں، لیکن بالغوں سے توقع کی جاتی ہے کہ وہ خود ڈیٹا کیوریشن کریں گے۔

AI ماڈل کی تربیت کے لیے دو مرحلوں پر مشتمل ڈیٹا اپروچ اختیار کرنے کی ضرورت ہے۔ شروع کرنے کے لیے، بیس اے آئی ماڈلز کو موجودہ طریقہ کار کو استعمال کرتے ہوئے تربیت دی جائے گی جس میں کم کیوریٹڈ ڈیٹا سیٹس کی بڑی مقدار استعمال کی جائے گی۔ یہ بنیادی بڑے لینگویج ماڈلز (LLMs) تقریباً ایک نوزائیدہ بچے کے مشابہ ہوں گے۔ اس کے بعد بنیادی سطح کے ماڈلز کو انتہائی کیوریٹڈ ڈیٹا سیٹس کے ساتھ تربیت دی جائے گی جیسا کہ بچوں کو بالغ بننے کے لیے سکھایا اور پرورش کیا جاتا ہے۔

ہر قسم کے اہداف کے لیے بڑے، تیار شدہ تربیتی ڈیٹا سیٹ بنانے کی کوشش چھوٹی نہیں ہوگی۔ یہ ان تمام کوششوں کے مترادف ہے جو والدین، اسکولوں اور معاشرے نے بچوں کے لیے ایک معیاری ماحول اور معیاری معلومات فراہم کرنے کے لیے کی ہیں کیونکہ وہ (امید ہے کہ) کام کرنے والے، معاشرے میں قدر میں اضافہ کرنے والے شراکت دار بن جاتے ہیں۔ یہ معیار، اچھی طرح سے کام کرنے والے، کم سے کم کرپٹ شدہ AI ماڈلز کو تربیت دینے کے لیے معیاری ڈیٹا سیٹ بنانے کے لیے درکار کوششوں کی سطح ہے، اور یہ AI کی پوری صنعت اور انسانوں کو مل کر کام کرنے کا باعث بن سکتی ہے تاکہ AI ماڈلز کو اپنے ہدف کے کام میں اچھا ہونا سکھایا جا سکے۔ .

آج کے AI تربیتی عمل کی حالت اس دو مراحل کے عمل کی کچھ علامات کو ظاہر کرتی ہے۔ لیکن، GenAI ٹیکنالوجی اور صنعت کے بچپن کی وجہ سے، بہت زیادہ تربیت کم کیوریٹڈ، اسٹیج ون اپروچ لیتی ہے۔

جب AI سیکیورٹی کی بات آتی ہے، تو ہم ایک گھنٹہ انتظار کرنے کے متحمل نہیں ہو سکتے، ایک دہائی کو چھوڑ دیں۔ AI کو ایک 23andMe ایپلی کیشن کی ضرورت ہے جو "الگورتھم جینالوجی" کا مکمل جائزہ لے سکے تاکہ ڈویلپرز AI کی "خاندانی" تاریخ کو مکمل طور پر سمجھ سکیں تاکہ دائمی مسائل کو نقل کرنے، ان نازک نظاموں کو متاثر ہونے سے روکا جا سکے جن پر ہم ہر روز انحصار کرتے ہیں، اور معاشی اور سماجی نقصانات پیدا کر سکتے ہیں۔ یہ ناقابل واپسی ہو سکتا ہے.

ہماری قومی سلامتی اس پر منحصر ہے۔

ٹائم اسٹیمپ:

سے زیادہ گہرا پڑھنا