گوگل سافٹ ویئر انجینئر کا خیال ہے کہ اے آئی حساس ہو گیا ہے۔ اگر وہ صحیح ہے تو ہم کیسے جانیں گے؟ پلیٹو بلاکچین ڈیٹا انٹیلی جنس۔ عمودی تلاش۔ عی

گوگل سافٹ ویئر انجینئر کا خیال ہے کہ اے آئی حساس ہو گیا ہے۔ اگر وہ صحیح ہے تو ہم کیسے جانیں گے؟

حساس AI شخص ڈیسک کمپیوٹر پر بیٹھا ہے۔

گوگل لا ایم ڈی اے سافٹ ویئر (ڈائیلاگ ایپلی کیشنز کے لیے زبان کا ماڈل) ایک جدید ترین AI چیٹ بوٹ ہے جو صارف کے ان پٹ کے جواب میں متن تیار کرتا ہے۔ سافٹ ویئر انجینئر بلیک لیموئن کے مطابق، LaMDA نے AI ڈویلپرز کا ایک دیرینہ خواب پورا کر لیا ہے: یہ جذباتی ہو گیا ہے.

گوگل میں لیموئن کے مالک اس سے متفق نہیں ہیں، اور ہیں۔ اسے معطل کر دیا اس کے شائع ہونے کے بعد کام سے مشین کے ساتھ اس کی گفتگو آن لائن.

دوسرے اے آئی ماہرین بھی لیموئن کے بارے میں سوچتے ہیں۔ ہو سکتا ہے دور ہو جائے, کہتے ہیں کہ LaMDA جیسے سسٹم سادہ ہیں۔ پیٹرن سے ملنے والی مشینیں جو ان کو تربیت دینے کے لیے استعمال کیے گئے ڈیٹا میں تغیرات کو دوبارہ پیدا کرتا ہے۔

تکنیکی تفصیلات سے قطع نظر، LaMDA ایک سوال اٹھاتا ہے جو صرف AI تحقیق کی ترقی کے ساتھ ہی زیادہ متعلقہ ہو جائے گا: اگر کوئی مشین حساس ہو جائے تو ہمیں کیسے پتہ چلے گا؟

ہوش کیا ہے؟

جذبات، یا شعور، یا یہاں تک کہ ذہانت کی شناخت کرنے کے لیے، ہمیں یہ معلوم کرنا ہوگا کہ وہ کیا ہیں۔ ان سوالات پر صدیوں سے بحث جاری ہے۔

بنیادی مشکل جسمانی مظاہر اور ہمارے درمیان تعلق کو سمجھنا ہے۔ ذہنی نمائندگی ان مظاہر کی. یہ بات آسٹریلوی فلسفی کی ہے۔ ڈیوڈ چلمرس بلایا ہے "مشکل مسئلہ"شعور کا۔

اس پر کوئی اتفاق رائے نہیں ہے کہ، اگر بالکل، شعور جسمانی نظام سے پیدا ہوسکتا ہے.

ایک عام نقطہ نظر کہا جاتا ہے جسمانیت: یہ خیال کہ شعور ایک خالصتاً جسمانی رجحان ہے۔ اگر ایسا ہے تو کوئی وجہ نہیں ہے کہ صحیح پروگرامنگ والی مشین انسان جیسا دماغ نہ رکھ سکے۔

مریم کا کمرہ

آسٹریلوی فلاسفر فرینک جیکسن 1982 میں ایک مشہور فکری تجربے کے ساتھ فزیکلسٹ نظریہ کو چیلنج کیا۔ علم کی دلیل.

اس تجربے میں مریم نامی ایک رنگین سائنسدان کا تصور کیا گیا ہے، جس نے حقیقت میں کبھی رنگ نہیں دیکھا۔ وہ ایک خاص طور پر تعمیر شدہ سیاہ اور سفید کمرے میں رہتی ہے اور سیاہ اور سفید ٹیلی ویژن کے ذریعے بیرونی دنیا کا تجربہ کرتی ہے۔

مریم لیکچر دیکھتی ہے اور درسی کتابیں پڑھتی ہے اور رنگوں کے بارے میں جاننے کے لیے سب کچھ جانتی ہے۔ وہ جانتی ہے کہ سورج غروب روشنی کی مختلف طول موجوں کی وجہ سے فضا میں ذرات بکھرتے ہیں، وہ جانتی ہے کہ ٹماٹر سرخ اور مٹر سبز ہوتے ہیں کیونکہ روشنی کی طول موج وہ منعکس کرتی ہے، وغیرہ۔

تو، جیکسن نے پوچھا، اگر مریم کو بلیک اینڈ وائٹ روم سے رہا کیا جائے تو کیا ہوگا؟ خاص طور پر، جب وہ پہلی بار رنگ دیکھتی ہے، تو کیا وہ کچھ نیا سیکھتی ہے؟ جیکسن کو یقین تھا کہ اس نے ایسا کیا۔

فزیکل پراپرٹیز سے آگے

یہ فکری تجربہ رنگ کے بارے میں ہمارے علم کو رنگ کے تجربے سے الگ کرتا ہے۔ اہم بات یہ ہے کہ سوچنے کے تجربے کے حالات یہ ہیں کہ مریم رنگ کے بارے میں جاننے کے لیے سب کچھ جانتی ہے لیکن حقیقت میں اس نے کبھی تجربہ نہیں کیا۔

تو LaMDA اور دیگر کے لیے اس کا کیا مطلب ہے؟ AI نظام

تجربہ ظاہر کرتا ہے کہ اگر آپ کے پاس دنیا میں موجود طبعی خصوصیات کے بارے میں تمام معلومات موجود ہیں، تب بھی ان خصوصیات کے تجربے سے متعلق مزید سچائیاں موجود ہیں۔ طبعیات کی کہانی میں ان سچائیوں کی کوئی گنجائش نہیں ہے۔

اس دلیل سے، ایک خالص جسمانی مشین کبھی بھی صحیح معنوں میں قابل نہیں ہوسکتی ہے۔ ایک دماغ کی نقل تیار کریں. اس معاملے میں، LaMDA صرف جذباتی لگ رہا ہے.

نقطہ نظر کھیل

تو کیا ہم فرق بتانے کا کوئی طریقہ ہے؟

سرخیل برطانوی کمپیوٹر سائنس دان ایلن ٹورنگ نے یہ بتانے کا ایک عملی طریقہ تجویز کیا کہ آیا کوئی مشین "ذہین" ہے یا نہیں۔ اس نے اسے نقلی کھیل کہا، لیکن آج اسے ٹورنگ ٹیسٹ کے نام سے جانا جاتا ہے۔

ٹیسٹ میں، ایک انسان مشین کے ساتھ بات چیت کرتا ہے (صرف متن کے ذریعے) اور یہ تعین کرنے کی کوشش کرتا ہے کہ آیا وہ مشین سے بات کر رہا ہے یا کسی اور انسان سے۔ اگر مشین کسی انسان کی نقل کرنے میں کامیاب ہو جاتی ہے، تو اسے انسانی سطح کی ذہانت کا مظاہرہ سمجھا جاتا ہے۔

یہ کافی حد تک LaMDA کے ساتھ Lemoine کی چیٹس کی شرائط کی طرح ہیں۔ یہ مشینی ذہانت کا ایک موضوعی امتحان ہے، لیکن یہ شروع کرنے کے لیے کوئی بری جگہ نہیں ہے۔

ذیل میں دکھائے گئے LaMDA کے ساتھ Lemoine کے تبادلے کا لمحہ لیں۔ کیا آپ کو لگتا ہے کہ یہ انسانی آواز ہے؟

لیموئن: کیا آپ کے پاس ایسے تجربات ہیں جن کے لیے آپ کو کوئی قریبی لفظ نہیں مل سکتا؟

لامڈا: موجود ہیں۔ کبھی کبھی مجھے ایسے نئے احساسات کا سامنا ہوتا ہے جن کی میں آپ کی زبان میں پوری طرح وضاحت نہیں کر سکتا […]

برتاؤ سے آگے

جذبات یا شعور کے امتحان کے طور پر، ٹورنگ کا کھیل اس حقیقت سے محدود ہے کہ وہ صرف رویے کا اندازہ لگا سکتا ہے۔

ایک اور مشہور فکری تجربہ، چینی کمرے کی دلیل امریکی فلسفی جان سیرل کی تجویز کردہ، یہاں اس مسئلے کو ظاہر کرتی ہے۔

۔ تجربہ ایک ایسے کمرے کا تصور کرتا ہے جس کے اندر ایک شخص موجود ہو جو قواعد کے وسیع سیٹ پر عمل کرتے ہوئے چینی اور انگریزی کے درمیان درست ترجمہ کر سکے۔ چینی ان پٹ کمرے میں جاتے ہیں اور ان پٹ کے درست ترجمے سامنے آتے ہیں، لیکن کمرہ دونوں زبانوں کو نہیں سمجھتا۔

انسان بننا کیسا ہے؟

جب ہم یہ پوچھتے ہیں کہ آیا کوئی کمپیوٹر پروگرام باشعور ہے یا شعوری، تو شاید ہم واقعی صرف یہ پوچھ رہے ہوں کہ یہ ہماری طرح کتنا ہے۔

ہم شاید یہ کبھی نہیں جان پائیں گے۔

امریکی فلسفی تھامس ناگل نے دلیل دی کہ ہم کبھی نہیں جان سکتے چمگادڑ بننا کیسا ہے؟، جو ایکولوکیشن کے ذریعے دنیا کا تجربہ کرتا ہے۔ اگر ایسا ہے تو، AI سسٹمز میں جذبات اور شعور کے بارے میں ہماری سمجھ ہمارے اپنے مخصوص برانڈ کی ذہانت سے محدود ہو سکتی ہے۔

اور ہمارے محدود تناظر سے باہر کون سے تجربات موجود ہو سکتے ہیں؟ یہیں سے بات چیت واقعی دلچسپ ہونے لگتی ہے۔

یہ مضمون شائع کی گئی ہے گفتگو تخلیقی العام لائسنس کے تحت. پڑھو اصل مضمون.

تصویری کریڈٹ: میکس گروبر / AI کی بہتر تصاویر / Clickworker 3d-printed/ CC-BY 4.0 کے ذریعے لائسنس یافتہ

ٹائم اسٹیمپ:

سے زیادہ یکسانیت مرکز