AI کو انسانی اقدار کے ساتھ ہم آہنگ کرنے کا کیا مطلب ہے؟ پلیٹو بلاکچین ڈیٹا انٹیلی جنس۔ عمودی تلاش۔ عی

AI کو انسانی اقدار کے ساتھ ہم آہنگ کرنے کا کیا مطلب ہے؟

تعارف

بہت سال پہلے، میں نے ایک پرانی Symbolics Lisp مشین پر پروگرام کرنا سیکھا۔ آپریٹنگ سسٹم میں ایک بلٹ ان کمانڈ تھی جس کی ہجے "DWIM" تھی، مختصراً "Do What I Mean"۔ اگر میں نے کوئی کمانڈ ٹائپ کیا اور غلطی ہو گئی تو میں "DWIM" ٹائپ کر سکتا ہوں اور مشین یہ جاننے کی کوشش کرے گی کہ میرا کیا مطلب ہے۔ اس وقت کا ایک حیرت انگیز حصہ، اس نے اصل میں کام کیا۔

DWIM کمانڈ "AI الائنمنٹ" کے زیادہ جدید مسئلے کا ایک مائیکرو کاسم تھا: ہم انسان مشینوں کو مبہم یا غلط ہدایات دینے کا شکار ہیں، اور ہم چاہتے ہیں کہ وہ وہی کریں جو ہمارا مطلب ہے، ضروری نہیں کہ ہم جو کہتے ہیں۔

غیر متوقع اور اکثر دل چسپ نتائج کے ساتھ کمپیوٹر اکثر غلط فہمی کرتے ہیں جو ہم ان سے کرنا چاہتے ہیں۔ ایک مشین لرننگ محقق، مثال کے طور پر، تصویر کی درجہ بندی کے پروگرام کے مشکوک طور پر اچھے نتائج کی چھان بین کرتے ہوئے، دریافت کہ یہ درجہ بندی کی بنیاد تصویر پر نہیں، بلکہ تصویری فائل تک رسائی میں کتنا وقت لگا اس پر ہے — مختلف کلاسوں کی تصاویر کو ڈیٹا بیس میں قدرے مختلف رسائی کے اوقات کے ساتھ محفوظ کیا گیا تھا۔ ایک اور کاروباری پروگرامر وہ چاہتا تھا کہ اس کا رومبا ویکیوم کلینر فرنیچر سے ٹکرانا بند کردے، اس لیے اس نے رومبا کو ایک نیورل نیٹ ورک سے جوڑ دیا جس نے رفتار کا فائدہ اٹھایا لیکن جب سامنے والا بمپر کسی چیز سے ٹکرا گیا تو رومبا کو سزا دی۔ مشین نے ہمیشہ پیچھے کی طرف گاڑی چلا کر ان مقاصد کو پورا کیا۔

لیکن AI الائنمنٹ محققین کی کمیونٹی ان کہانیوں کا ایک تاریک پہلو دیکھتی ہے۔ درحقیقت، ان کا ماننا ہے کہ مشینوں کی یہ سمجھنے میں ناکامی کہ ہم واقعی ان سے کیا کرنا چاہتے ہیں ایک وجودی خطرہ ہے۔ ان کا ماننا ہے کہ اس مسئلے کو حل کرنے کے لیے ہمیں AI سسٹم کو انسانی ترجیحات، اہداف اور اقدار کے ساتھ ہم آہنگ کرنے کے طریقے تلاش کرنے چاہئیں۔

اس نظریے کو 2014 کی سب سے زیادہ فروخت ہونے والی کتاب کے ساتھ اہمیت حاصل ہوئی۔ سپرٹینٹیبلنسٹی فلسفی نک بوسٹروم کی طرف سے، جس نے جزوی طور پر دلیل دی کہ کمپیوٹرز کی بڑھتی ہوئی ذہانت انسانیت کے مستقبل کے لیے براہ راست خطرہ بن سکتی ہے۔ بوسٹروم نے کبھی بھی ذہانت کی قطعی تعریف نہیں کی، لیکن، AI الائنمنٹ کمیونٹی کے دوسرے لوگوں کی طرح، اس نے بعد میں ایک تعریف کو اپنایا۔ واضح AI محقق کے ذریعہ اسٹورٹ رسل جیسا کہ: "ایک ہستی کو ذہین سمجھا جاتا ہے، موٹے طور پر، اگر وہ ایسے اقدامات کا انتخاب کرتی ہے جن سے اس کے مقاصد کے حصول کی توقع کی جاتی ہے، اس کے پیش نظر جو اس نے محسوس کیا ہے۔"

بوسٹروم نے دو مقالوں پر AI کے خطرات کے بارے میں اپنے نظریہ کی بنیاد رکھی۔ پہلا آرتھوگونالٹی تھیسس ہے، جو بوسٹروم کے الفاظ میں کہتا ہے، "ذہانت اور حتمی اہداف آرتھوگونل محور ہیں جن کے ساتھ ممکنہ ایجنٹ آزادانہ طور پر مختلف ہو سکتے ہیں۔ دوسرے لفظوں میں، کم و بیش کسی بھی سطح کی ذہانت کو اصولی طور پر کم و بیش کسی حتمی مقصد کے ساتھ ملایا جا سکتا ہے۔" دوسرا انسٹرومینٹل کنورجنسی تھیسس ہے، جس کا مطلب یہ ہے کہ ایک ذہین ایجنٹ اس طریقے سے کام کرے گا جو اس کی اپنی بقا، خود کو بہتر بنانے اور وسائل کے حصول کو فروغ دے گا، جب تک کہ یہ ایجنٹ کے اپنے حتمی مقصد کو حاصل کرنے کا زیادہ امکان بنائے۔ پھر اس نے ایک حتمی مفروضہ کیا: محققین جلد ہی ایک AI سپر انٹیلی جنس بنائیں گے - جو کہ "دلچسپی کے تمام شعبوں میں انسانوں کی علمی کارکردگی سے بہت زیادہ ہے۔"

بوسٹروم اور AI الائنمنٹ کمیونٹی کے دیگر افراد کے لیے، یہ امکان انسانیت کے لیے تباہی کا باعث ہے جب تک کہ ہم اپنی خواہشات اور اقدار کے ساتھ سپر انٹیلیجنٹ AI کو ہم آہنگ کرنے میں کامیاب نہیں ہو جاتے۔ بوسٹروم اس خطرے کو ایک مشہور فکری تجربے کے ساتھ واضح کرتا ہے: تصور کریں کہ ایک سپر انٹیلیجنٹ AI کو کاغذی تراشوں کی پیداوار کو زیادہ سے زیادہ کرنے کا ہدف دینا ہے۔ بوسٹروم کے مقالے کے مطابق، اس مقصد کو حاصل کرنے کی جستجو میں، AI نظام اپنی مافوق الفطرت صلاحیتوں اور تخلیقی صلاحیتوں کو اپنی طاقت اور کنٹرول کو بڑھانے کے لیے استعمال کرے گا، بالآخر مزید کاغذی کلپس بنانے کے لیے دنیا کے تمام وسائل حاصل کر لے گا۔ انسانیت ختم ہو جائے گی، لیکن کاغذی کلپ کی پیداوار واقعی زیادہ سے زیادہ ہو جائے گی۔

اگر آپ کو یقین ہے کہ ذہانت کی تعریف اہداف کو حاصل کرنے کی صلاحیت سے ہوتی ہے، کہ کوئی بھی ہدف انسانوں کے ذریعے ایک سپر انٹیلیجنٹ AI ایجنٹ میں "داخل" کیا جا سکتا ہے، اور یہ کہ ایسا ایجنٹ اس مقصد کو حاصل کرنے کے لیے کچھ بھی کرنے کے لیے اپنی ذہانت کا استعمال کرے گا، تو آپ اسی پر پہنچیں اختتام جو رسل نے کیا: "تباہ کو یقینی بنانے کے لیے جو کچھ درکار ہے وہ انسانوں کے ساتھ مل کر ایک انتہائی قابل مشین ہے جس میں انسانی ترجیحات کو مکمل اور صحیح طریقے سے بیان کرنے کی نامکمل صلاحیت ہے۔"

یہ سائنس فکشن میں ایک مانوس ٹراپ ہے - انسانیت کو کنٹرول سے باہر مشینوں سے خطرہ ہے جنہوں نے انسانی خواہشات کی غلط تشریح کی ہے۔ اب اے آئی ریسرچ کمیونٹی کا ایک غیر ضروری طبقہ حقیقی زندگی میں اس طرح کے منظر نامے کے بارے میں گہری تشویش میں ہے۔ درجنوں ادارے پہلے ہی اس مسئلے پر کروڑوں ڈالر خرچ کر چکے ہیں، اور دنیا بھر کی یونیورسٹیوں اور گوگل، میٹا اور اوپن اے آئی جیسی بڑی اے آئی کمپنیوں میں صف بندی پر تحقیقی کوششیں جاری ہیں۔

غیر ذہین AI کی طرف سے لاحق زیادہ فوری خطرات کے بارے میں کیا خیال ہے، جیسے کہ ملازمت میں کمی، تعصب، رازداری کی خلاف ورزیاں اور غلط معلومات پھیلانا؟ اس سے پتہ چلتا ہے کہ بنیادی طور پر اس طرح کے قلیل مدتی خطرات سے متعلق کمیونٹیز اور جو لوگ طویل مدتی صف بندی کے خطرات کے بارے میں زیادہ فکر مند ہیں ان کے درمیان بہت کم اوورلیپ ہے۔ درحقیقت، ایک AI ثقافت کی جنگ ہے، جس میں ایک طرف ان موجودہ خطرات کے بارے میں زیادہ فکر مند ہے جو کہ وہ غیر حقیقی ٹیکنو فیوچرزم کے طور پر دیکھتے ہیں، اور دوسری طرف موجودہ مسائل کو انتہائی ذہین AI کی طرف سے لاحق ممکنہ تباہ کن خطرات سے کم ضروری سمجھتے ہیں۔

ان مخصوص کمیونٹیز سے باہر کے بہت سے لوگوں کے لیے، AI کی صف بندی ایک مذہب کی طرح دکھائی دیتی ہے — جس میں قابل احترام رہنما، بلا سوال نظریہ اور ایک ممکنہ طور پر طاقتور دشمن (غیر منسلک سپر انٹیلیجنٹ AI) سے لڑنے والے عقیدت مند شاگرد ہوں۔ درحقیقت، کمپیوٹر سائنسدان اور بلاگر سکاٹ ایرونسن نے حال ہی میں کا کہنا کہ اب AI الائنمنٹ عقیدے کی "آرتھوڈوکس" اور "اصلاح" شاخیں ہیں۔ سابقہ، وہ لکھتا ہے، تقریباً مکمل طور پر "غلط AI کے بارے میں فکر مند ہے جو انسانوں کو دھوکہ دیتا ہے جبکہ یہ انہیں تباہ کرنے کا کام کرتا ہے۔" اس کے برعکس، وہ لکھتے ہیں، "ہم ریفارم AI-خطرے رکھنے والے اس امکان کو پسند کرتے ہیں، لیکن ہم کم از کم طاقتور AIs کے بارے میں اتنا ہی فکر مند ہیں جو برے انسانوں کے ذریعہ ہتھیار بنائے گئے ہیں، جن سے ہم بہت پہلے وجودی خطرات لاحق ہونے کی توقع رکھتے ہیں۔"

بہت سے محققین فعال طور پر سیدھ پر مبنی منصوبوں میں مصروف ہیں، سے لے کر اصولوں کی فراہمی کی کوششیں مشینوں کے لیے اخلاقی فلسفے کا بڑے زبان کے ماڈل کی تربیت کراؤڈ سورسڈ اخلاقی فیصلوں پر۔ ان میں سے کوئی بھی کوشش مشینوں کو حقیقی دنیا کے حالات کے بارے میں استدلال کرنے کے لیے خاص طور پر مفید ثابت نہیں ہوئی۔ بہت سے مصنفین نے مشینوں کو انسانی ترجیحات اور اقدار کو سیکھنے سے روکنے میں بہت سی رکاوٹوں کو نوٹ کیا ہے: لوگ اکثر غیر معقول ہوتے ہیں اور ان طریقوں سے برتاؤ کرتے ہیں جو ان کی اقدار سے متصادم ہوتے ہیں، اور اقدار انفرادی زندگیوں اور نسلوں میں بدل سکتی ہیں۔ بہر حال، یہ واضح نہیں ہے کہ ہمیں مشینوں کو کس کی اقدار سیکھنے کی کوشش کرنی چاہیے۔

الائنمنٹ کمیونٹی میں بہت سے لوگ سوچتے ہیں کہ آگے کا سب سے امید افزا راستہ مشین لرننگ تکنیک ہے جسے کہا جاتا ہے۔ الٹا کمک سیکھنے (IRL)۔ IRL کے ساتھ، مشین کو زیادہ سے زیادہ کرنے کا مقصد نہیں دیا جاتا ہے۔ اس طرح کے "داخل کردہ" اہداف، سیدھ کے حامیوں کا خیال ہے کہ، نادانستہ طور پر کاغذی کلپ کو زیادہ سے زیادہ منظرنامے کی طرف لے جا سکتے ہیں۔ اس کے بجائے، مشین کا کام انسانوں کے رویے کا مشاہدہ کرنا اور ان کی ترجیحات، مقاصد اور اقدار کا اندازہ لگانا ہے۔ حالیہ برسوں میں، محققین نے IRL کو استعمال کیا ہے۔ ویڈیو گیمز کھیلنے کے لیے مشینوں کو تربیت دیں۔ انسانوں کا مشاہدہ کرکے اور روبوٹ کو سکھانے کے لیے بیک فلپس کیسے کریں۔ ان کو انسانوں کی طرف سے بڑھتی ہوئی رائے دے کر (لوگوں نے روبوٹ کی مختلف کوششوں کے مختصر کلپس دیکھے اور اس کا انتخاب کیا جو سب سے بہتر لگے)۔

یہ واضح نہیں ہے کہ آیا اسی طرح کے طریقے مشینوں کو انسانی اقدار کے زیادہ لطیف اور تجریدی خیالات سکھا سکتے ہیں۔ مصنف برائن کرسچن، مصنف a AI سیدھ کے بارے میں مشہور سائنس کی کتاب, پرامید ہے: "'بیک فلپ' کے مضحکہ خیز تصور کی جگہ 'مددگار' جیسے اس سے بھی زیادہ مضحکہ خیز اور ناقابل فہم تصور کو تبدیل کرنے کا تصور کرنا اتنا بڑا کام نہیں ہے۔ یا 'مہربانی۔' یا 'اچھا' سلوک۔

تاہم، میرے خیال میں یہ چیلنج کو کم سمجھتا ہے۔ اخلاقی تصورات جیسے احسان اور اچھا برتاؤ بہت زیادہ پیچیدہ اور سیاق و سباق پر منحصر ہے جس میں IRL نے اب تک مہارت حاصل کی ہے۔ "سچائی" کے تصور پر غور کریں - ایک قدر جو ہم اپنے AI سسٹمز میں یقینی طور پر چاہتے ہیں۔ درحقیقت، آج کے بڑے زبان کے ماڈلز کے ساتھ ایک بڑا مسئلہ ان کی سچائی سے جھوٹ کی تمیز کرنے میں ناکامی ہے۔ ایک ہی وقت میں، ہم بعض اوقات اپنے AI معاونین سے، بالکل انسانوں کی طرح، ان کی سچائی پر غصہ پیدا کرنا چاہتے ہیں: رازداری کی حفاظت کے لیے، دوسروں کی توہین سے بچنے کے لیے، یا کسی کو محفوظ رکھنے کے لیے، بے شمار دیگر مشکل سے بیان کرنے والے حالات میں۔

دوسرے اخلاقی تصورات بھی اتنے ہی پیچیدہ ہیں۔ یہ واضح رہے کہ مشینوں کو اخلاقی تصورات کی تعلیم دینے کی طرف ایک ضروری پہلا قدم مشینوں کو انسان نما تصورات کو سمجھنے کے قابل بنانا ہے، جس کے بارے میں میں نے دلیل دی ہے کہ اب بھی AI کی ہے۔ سب سے اہم کھلا مسئلہ.

مزید یہ کہ، میں AI کی صف بندی کے سائنس کے بنیادی تصورات کے ساتھ ایک اور بھی بنیادی مسئلہ دیکھ رہا ہوں۔ زیادہ تر مباحث میں ایک سپر ذہین AI کا تصور ایک مشین کے طور پر ہوتا ہے جو تمام علمی کاموں میں انسانوں کو پیچھے چھوڑتے ہوئے بھی انسان جیسی عقل کا فقدان ہے اور فطرت میں عجیب طرح سے میکانکی رہتی ہے۔ اور اہم بات یہ ہے کہ بوسٹروم کے آرتھوگونالٹی تھیسس کو مدنظر رکھتے ہوئے، مشین نے انسانوں کی طرف سے اہداف کے داخل ہونے کا انتظار کرنے کے بجائے اس کے اپنے کسی بھی اہداف یا اقدار کے بغیر سپر انٹیلی جنس حاصل کی ہے۔

پھر بھی کیا انٹیلی جنس اس طرح کام کر سکتی ہے؟ نفسیات یا نیورو سائنس کی موجودہ سائنس میں کوئی بھی چیز اس امکان کی تائید نہیں کرتی۔ انسانوں میں، کم از کم، ذہانت ہمارے اہداف اور اقدار کے ساتھ ساتھ ہمارے احساس اور ہمارے مخصوص سماجی اور ثقافتی ماحول سے گہرا تعلق رکھتی ہے۔ یہ وجدان کہ ایک قسم کی خالص ذہانت کو ان دیگر عوامل سے الگ کیا جا سکتا ہے۔ کئی ناکام پیشین گوئیاں AI کی تاریخ میں جو کچھ ہم جانتے ہیں اس سے یہ زیادہ امکان نظر آتا ہے کہ عام طور پر ذہین AI سسٹم کے اہداف آسانی سے داخل نہیں کیے جاسکتے ہیں، لیکن اسے اپنی سماجی اور ثقافتی پرورش کے نتیجے میں ہماری طرح ترقی کرنا ہوگی۔

نے اپنی کتاب میں انسانی ہم آہنگ, رسل صف بندی کے مسئلے پر تحقیق کی فوری ضرورت کے لیے دلیل دیتے ہیں: "انسانیت کے لیے ممکنہ طور پر سنگین مسئلے کے بارے میں فکر کرنے کا صحیح وقت صرف اس بات پر نہیں کہ مسئلہ کب پیش آئے گا بلکہ اس بات پر بھی ہے کہ حل کی تیاری اور اس پر عمل درآمد میں کتنا وقت لگے گا۔ " لیکن ذہانت کیا ہے اور یہ ہماری زندگی کے دوسرے پہلوؤں سے کتنی الگ ہے اس کی بہتر تفہیم کے بغیر، ہم مسئلہ کی وضاحت بھی نہیں کر سکتے، بہت کم حل تلاش کرتے ہیں۔ صف بندی کے مسئلے کو صحیح طریقے سے بیان کرنا اور حل کرنا آسان نہیں ہوگا۔ اس کے لیے ہمیں ایک وسیع، سائنسی بنیاد پر ذہانت کا نظریہ تیار کرنے کی ضرورت ہوگی۔

ٹائم اسٹیمپ:

سے زیادہ کوانٹا میگزین