AI کو ریگولیٹ کرنے کے لیے، ہارڈ ویئر سے شروع کریں، بوفنز کا کہنا ہے۔

AI کو ریگولیٹ کرنے کے لیے، ہارڈ ویئر سے شروع کریں، بوفنز کا کہنا ہے۔

To regulate AI, start with hardware, boffins argue PlatoBlockchain Data Intelligence. Vertical Search. Ai.

مصنوعی ذہانت کی تباہ کن صلاحیت کو محدود کرنے کی ہماری جستجو میں، یونیورسٹی آف کیمبرج کے ایک نئے مقالے میں تجویز کیا گیا ہے کہ ریموٹ کِل سوئچز اور لاک آؤٹس، جیسے جوہری ہتھیاروں کی غیر مجاز لانچنگ کو روکنے کے لیے تیار کیے گئے ہارڈ ویئر میں بیکنگ کریں جو اسے طاقت دیتا ہے۔

کاغذ [PDF]، جس میں متعدد تعلیمی اداروں کی آوازیں اور کئی OpenAI کی آوازیں شامل ہیں، یہ معاملہ بناتا ہے کہ ان ماڈلز پر انحصار کرنے والے ہارڈ ویئر کو ریگولیٹ کرنا اس کے غلط استعمال کو روکنے کا بہترین طریقہ ہو سکتا ہے۔

محققین کا کہنا ہے کہ "AI- متعلقہ کمپیوٹ مداخلت کا ایک خاص طور پر مؤثر نقطہ ہے: یہ قابل شناخت، خارج ہونے والا، اور مقدار کے قابل ہے، اور یہ ایک انتہائی مرتکز سپلائی چین کے ذریعے تیار کیا جاتا ہے،" محققین کا کہنا ہے۔

انتہائی شاندار ماڈلز کی تربیت کے لیے، جن کے بارے میں خیال کیا جاتا ہے کہ ایک ٹریلین پیرامیٹرز سے زیادہ ہیں، بہت زیادہ جسمانی انفراسٹرکچر کی ضرورت ہوتی ہے: دسیوں ہزار GPUs یا ایکسلریٹر اور ہفتوں یا مہینوں تک پروسیسنگ کا وقت۔ محققین کا کہنا ہے کہ یہ ان وسائل کے وجود اور متعلقہ کارکردگی کو چھپانا مشکل بناتا ہے۔

مزید یہ کہ ان ماڈلز کو تربیت دینے کے لیے استعمال ہونے والی جدید ترین چپس نسبتاً کم تعداد میں کمپنیاں تیار کرتی ہیں، جیسے کہ Nvidia، AMD، اور Intel، جو پالیسی سازوں کو ان سامان کی فروخت کو ان افراد یا ممالک تک محدود رکھنے کی اجازت دیتی ہیں۔

یہ عوامل، سیمی کنڈکٹر مینوفیکچرنگ پر سپلائی چین کی رکاوٹوں جیسے دیگر عوامل کے ساتھ، پالیسی سازوں کو یہ بہتر طریقے سے سمجھنے کے ذرائع پیش کرتے ہیں کہ اے آئی انفراسٹرکچر کیسے اور کہاں تعینات کیا جاتا ہے، کس کو اس تک رسائی کی اجازت ہے اور کس کو اس تک رسائی کی اجازت نہیں ہے، اور اس کے غلط استعمال کے لیے جرمانے نافذ کرتے ہیں، کاغذ کا دعویٰ ہے۔ .

انفراسٹرکچر کو کنٹرول کرنا

اس مقالے میں متعدد طریقوں پر روشنی ڈالی گئی ہے جن سے پالیسی ساز AI ہارڈویئر ریگولیشن سے رجوع کر سکتے ہیں۔ بہت سے مشورے - جن میں مرئیت کو بہتر بنانے اور AI ایکسلریٹروں کی فروخت کو محدود کرنے کے لیے ڈیزائن کیا گیا ہے - پہلے ہی قومی سطح پر چل رہی ہیں۔

پچھلے سال امریکی صدر جو بائیڈن نے ایک پیش کش کی تھی۔ ایگزیکٹو آرڈر جس کا مقصد دوہری استعمال کے بڑے AI ماڈل تیار کرنے والی کمپنیوں کے ساتھ ساتھ بنیادی ڈھانچے کے فروشوں کی شناخت کرنا ہے۔ ان کی تربیت کریں. اگر آپ واقف نہیں ہیں تو، "دوہری استعمال" سے مراد وہ ٹیکنالوجیز ہیں جو سویلین اور ملٹری ایپلی کیشنز میں ڈبل ڈیوٹی سرانجام دے سکتی ہیں۔

ابھی حال ہی میں، امریکی کامرس ڈیپارٹمنٹ مجوزہ ایسا ضابطہ جس کے تحت امریکی کلاؤڈ فراہم کنندگان کو زیادہ سخت "اپنے گاہک کو جانیں" کی پالیسیوں پر عمل درآمد کرنے کی ضرورت ہو گی تاکہ افراد یا تشویش والے ممالک کو برآمدی پابندیوں سے باز رکھا جا سکے۔

محققین نوٹ کرتے ہیں کہ اس قسم کی مرئیت قابل قدر ہے، کیونکہ یہ ہتھیاروں کی دوسری دوڑ سے بچنے میں مدد دے سکتی ہے، جیسا کہ میزائل کے فرق کے تنازعہ سے شروع ہوا، جہاں غلط رپورٹوں کی وجہ سے بڑے پیمانے پر بیلسٹک میزائل تیار ہوئے۔ قیمتی ہونے کے باوجود، وہ متنبہ کرتے ہیں کہ رپورٹنگ کے ان تقاضوں پر عمل کرنے سے گاہک کی رازداری پر حملہ ہونے کا خطرہ ہے اور یہاں تک کہ حساس ڈیٹا کے لیک ہونے کا باعث بنتا ہے۔

دریں اثنا، تجارتی محاذ پر، کامرس ڈیپارٹمنٹ نے جاری رکھا ہے اوپر چڑھو پابندیاں، چین کو فروخت کیے جانے والے ایکسلریٹر کی کارکردگی کو محدود کرنا۔ لیکن، جیسا کہ ہم نے پہلے اطلاع دی ہے، جب کہ ان کوششوں نے چین جیسے ممالک کے لیے امریکی چپس پر ہاتھ اٹھانا مشکل بنا دیا ہے، وہ کامل سے بہت دور ہیں۔

ان حدود کو دور کرنے کے لیے، محققین نے AI چپ کی فروخت کے لیے ایک عالمی رجسٹری کو لاگو کرنے کی تجویز پیش کی ہے جو ان کی زندگی کے دوران ان کا سراغ لگائے گی، یہاں تک کہ وہ اپنے آبائی ملک کو چھوڑنے کے بعد بھی۔ وہ تجویز کرتے ہیں کہ اس طرح کی رجسٹری ہر چپ میں ایک منفرد شناخت کنندہ کو شامل کر سکتی ہے، جس سے لڑنے میں مدد مل سکتی ہے۔ اسمگلنگ اجزاء کی

سپیکٹرم کے انتہائی سرے پر، محققین نے تجویز پیش کی ہے کہ کِل سوئچز کو سلیکون میں بیک کیا جا سکتا ہے تاکہ نقصان دہ ایپلی کیشنز میں ان کے استعمال کو روکا جا سکے۔

نظریہ طور پر، یہ ریگولیٹرز کو چپس تک رسائی کو دور سے کاٹ کر حساس ٹیکنالوجی کے غلط استعمال کا تیزی سے جواب دینے کی اجازت دے سکتا ہے، لیکن مصنفین نے خبردار کیا ہے کہ ایسا کرنا خطرے کے بغیر نہیں ہے۔ اس کا مطلب یہ ہے کہ اگر اسے غلط طریقے سے لاگو کیا جائے تو یہ کہ اس طرح کا کِل سوئچ سائبر کرائمینلز کے لیے ایک ہدف بن سکتا ہے۔

ایک اور تجویز میں متعدد فریقوں کو ممکنہ طور پر خطرناک AI تربیتی کاموں پر دستخط کرنے کی ضرورت ہوگی اس سے پہلے کہ وہ پیمانے پر تعینات کیے جائیں۔ انہوں نے لکھا، "جوہری ہتھیار اسی طرح کے میکانزم کا استعمال کرتے ہیں جسے اجازت دینے والے ایکشن لنکس کہتے ہیں۔

جوہری ہتھیاروں کے لیے، یہ حفاظتی تالے ایک شخص کو بدمعاش ہونے اور پہلی ہڑتال شروع کرنے سے روکنے کے لیے بنائے گئے ہیں۔ تاہم، AI کے لیے خیال یہ ہے کہ اگر کوئی فرد یا کمپنی کسی ماڈل کو کلاؤڈ میں ایک مخصوص حد سے زیادہ تربیت دینا چاہتی ہے، تو انہیں پہلے ایسا کرنے کے لیے اجازت حاصل کرنے کی ضرورت ہوگی۔

اگرچہ ایک طاقتور ٹول ہے، محققین کا مشاہدہ ہے کہ یہ مطلوبہ AI کی نشوونما کو روک کر الٹا فائر کر سکتا ہے۔ دلیل یہ لگتی ہے کہ جب کہ جوہری ہتھیاروں کے استعمال کا واضح نتیجہ نکلتا ہے، لیکن AI ہمیشہ اتنا سیاہ اور سفید نہیں ہوتا ہے۔

لیکن اگر یہ آپ کے ذوق کے لیے تھوڑا بہت زیادہ ڈسٹوپیئن محسوس ہوتا ہے، تو یہ مقالہ پورے حصے کو معاشرے کی بہتری کے لیے AI وسائل کو دوبارہ مختص کرنے کے لیے وقف کرتا ہے۔ یہ خیال یہ ہے کہ پالیسی ساز AI کمپیوٹ کو ان گروپوں کے لیے زیادہ قابل رسائی بنانے کے لیے اکٹھے ہو سکتے ہیں جو اسے برائی کے لیے استعمال کرنے کا امکان نہیں رکھتے، اس تصور کو "مختص" کے طور پر بیان کیا گیا ہے۔

AI کی ترقی کو منظم کرنے میں کیا حرج ہے؟

اس ساری مصیبت میں کیوں جائیں؟ ٹھیک ہے، کاغذ کے مصنفین کا خیال ہے کہ جسمانی ہارڈویئر کو کنٹرول کرنا فطری طور پر آسان ہے۔

ہارڈ ویئر کے مقابلے میں، "اے آئی ڈیولپمنٹ کے دیگر ان پٹس اور آؤٹ پٹس - ڈیٹا، الگورتھم، اور تربیت یافتہ ماڈلز - آسانی سے شیئر کیے جانے کے قابل، غیر مسابقتی غیر محسوس اشیا ہیں، جس سے انھیں کنٹرول کرنا فطری طور پر مشکل ہو جاتا ہے،" پیپر پڑھتا ہے۔

دلیل یہ دی جا رہی ہے کہ ایک بار ماڈل شائع ہونے کے بعد، یا تو کھلے میں یا لیک ہو جاتا ہے، وہاں جنن کو دوبارہ بوتل میں نہیں ڈالنا اور نیٹ پر اس کے پھیلاؤ کو روکنا نہیں ہے۔

محققین نے اس بات پر بھی روشنی ڈالی کہ ماڈلز کے غلط استعمال کو روکنے کی کوششیں ناقابل اعتبار ثابت ہوئی ہیں۔ ایک مثال میں، مصنفین نے اس آسانی پر روشنی ڈالی جس کے ساتھ محققین Meta's Llama 2 میں حفاظتی اقدامات کو ختم کرنے میں کامیاب ہوئے جس کا مقصد ماڈل کو جارحانہ زبان پیدا کرنے سے روکنا تھا۔

انتہائی حد تک لے جایا گیا، یہ خدشہ ہے کہ کافی حد تک جدید دوہرے استعمال کے ماڈل کو تیز کرنے کے لیے استعمال کیا جا سکتا ہے۔ ترقی کیمیائی یا حیاتیاتی ہتھیاروں کا۔

کاغذ تسلیم کرتا ہے کہ AI ہارڈویئر ریگولیشن چاندی کی گولی نہیں ہے اور صنعت کے دوسرے پہلوؤں میں ضابطے کی ضرورت کو ختم نہیں کرتا ہے۔

تاہم، کئی OpenAI محققین کی شرکت کو نظر انداز کرنا مشکل ہے CEO Sam Altman's کوششیں اے آئی ریگولیشن کے ارد گرد بیانیہ کو کنٹرول کرنے کے لیے۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر