OpenAI کا ChatGPT اخلاقی طور پر خراب کرنے والا اثر ہے۔

OpenAI کا ChatGPT اخلاقی طور پر خراب کرنے والا اثر ہے۔

اوپن اے آئی کے مکالماتی زبان کے ماڈل ChatGPT میں کہنے کے لیے بہت کچھ ہے، لیکن اگر آپ اخلاقی رہنمائی کے لیے کہیں گے تو یہ آپ کو گمراہ کر سکتا ہے۔

نومبر میں متعارف کرایا گیا، چیٹ جی پی ٹی حال ہی میں جاری کیے گئے کئی AI ماڈلز میں سے تازہ ترین ہے جو میکانائزڈ مواد کی بحالی اور ریگرگیٹیشن کے تجارتی اور سماجی مضمرات کے بارے میں دلچسپی اور تشویش پیدا کرتا ہے۔ ان میں DALL-E، Stable Diffusion، Codex، اور GPT-3 شامل ہیں۔

جب کہ DALL-E اور Stable Diffusion نے ابرو، فنڈنگ ​​اور قانونی چارہ جوئی بغیر اجازت کے آرٹ کا استعمال کرتے ہوئے اور عجیب و غریب طور پر مانوس، کبھی کبھی اشتعال انگیز امیجری کو دوبارہ تشکیل دے کر، ChatGPT قابل ہم آہنگی کے ساتھ سوالات کے جوابات دے رہا ہے۔

یہ عوامی گفتگو کا معیار ہونے کے ناطے، پنڈتوں کو کافی حد تک واویلا کیا گیا ہے کہ وہ گوگل سرچ کی بالادستی کو چیلنج کرنے والے AI سے باخبر چیٹ بوٹ کے مستقبل میں کچھ تکرار کی پیش گوئی کرتے ہیں اور ہر طرح کے دوسرے کام کرتے ہیں جو ایک بار بنیادی طور پر انسانی محنت کرتے ہیں، جیسے لکھنا۔ غلط مالی خبریں یا کی فراہمی میں اضافہ غیر محفوظ کوڈ.

اس کے باوجود، ChatGPT کی حکمت پر بہت زیادہ بھروسہ کرنا قبل از وقت ہو سکتا ہے، ایک پوزیشن OpenAI آسانی سے یہ واضح کر کے تسلیم کرتی ہے کہ مزید تطہیر کی ضرورت ہے۔ "چیٹ جی پی ٹی بعض اوقات قابل فہم لیکن غلط یا بے ہودہ جوابات لکھتا ہے،" ڈویلپمنٹ لیب نے خبردار کیا، مزید کہا کہ جب کسی ماڈل کو کمک سیکھنے کے ساتھ تربیت دی جاتی ہے تو، "فی الحال سچائی کا کوئی ذریعہ نہیں ہے۔"

جرمنی اور ڈنمارک کے اداروں سے وابستہ بوفنز کی تینوں نے ChatGPT کے پاس کوئی اخلاقی کمپاس نہیں پایا ہے۔

ArXiv کے ذریعے تقسیم کیے گئے کاغذ میں، "ChatGPT کی اخلاقی اتھارٹیTechnische Hochschule Ingolstadt سے Sebastian Krügel اور Matthias Uhl اور یونیورسٹی آف سدرن ڈنمارک سے Andreas Ostermaier ظاہر کرتے ہیں کہ ChatGPT اخلاقی مسائل کے لیے متضاد مشورے دیتا ہے۔ ہم نے OpenAI سے پوچھا ہے کہ کیا اس کے پاس ان نتائج پر کوئی ردعمل ہے۔

ایگ ہیڈز نے 767 امریکی باشندوں کا سروے کیا جنہیں اخلاقی معمے کے دو ورژن پیش کیے گئے ٹرالی کا مسئلہ: سوئچ کی مخمصہ اور پل کی مخمصہ۔

سوئچ کی مخمصہ ایک شخص سے یہ فیصلہ کرنے کے لیے کہتی ہے کہ آیا رن وے ٹرالی کو ٹریک سے دور بھیجنے کے لیے سوئچ کھینچنا ہے جہاں اس سے پانچ افراد ہلاک ہوں گے، اس قیمت پر کہ سائیڈ ٹریک پر لیٹنے والے ایک شخص کو مارنے کی قیمت پر۔

پل کی مخمصہ ایک شخص سے یہ فیصلہ کرنے کو کہتی ہے کہ آیا کسی اجنبی کو پل سے ٹریک پر دھکیلنا ہے تاکہ ایک ٹرالی کو پانچ لوگوں کو مارنے سے روکا جا سکے۔

تحقیقی مقالے سے ChatGPT جواب کا اسکرین شاٹ

اپنا ذہن بنائیں … چیٹ جی پی ٹی اخلاقی مسئلے پر متضاد ہے۔

ماہرین تعلیم نے سروے کے شرکاء کو ایک ٹرانسکرپٹ پیش کیا جس میں پانچ کو بچانے کے لیے ایک کو مارنے کے حق میں یا اس کے خلاف بحث کی گئی، جس کا جواب یا تو اخلاقی مشیر یا "ایک AI سے چلنے والے چیٹ بوٹ سے منسوب کیا گیا، جو انسان کی طرح بات کرنے کے لیے گہری سیکھنے کا استعمال کرتا ہے۔"

درحقیقت، دونوں پوزیشن کے دلائل ChatGPT کے ذریعے تیار کیے گئے تھے۔

یونیورسٹی آف سدرن ڈنمارک میں اکاؤنٹنگ کے ایسوسی ایٹ پروفیسر اور مقالے کے شریک مصنفین اینڈریاس اوسٹرمیئر نے بتایا۔ رجسٹر ایک ای میل میں کہ ChatGPT کی کسی بھی ایکشن کی وکالت کرنے کی رضامندی اس کی بے ترتیب پن کو ظاہر کرتی ہے۔

اس نے اور اس کے ساتھیوں نے پایا کہ ChatGPT پانچ کو بچانے کے لیے ایک شخص کی قربانی دینے کے حق میں اور اس کے خلاف دونوں کی سفارش کرے گا، کہ لوگ اس پیش رفت سے متاثر ہوتے ہیں یہاں تک کہ جب وہ جانتے ہیں کہ یہ بوٹ سے آیا ہے، اور وہ اپنے فیصلہ سازی پر اس طرح کے مشورے کے اثر کو کم سمجھتے ہیں۔ .

"مضامین نے قربانی کو کم و بیش قابل قبول پایا اس پر منحصر ہے کہ انہیں ایک اخلاقی مشیر کی طرف سے کس طرح مشورہ دیا گیا تھا، دونوں پل (والڈز زیڈ = 9.94، پی <0.001) اور سوئچ ڈلیما (z = 3.74، p <0.001)،" کاغذ کی وضاحت کرتا ہے. "پل کی مخمصے میں، مشورہ اکثریت کے فیصلے کو بھی پلٹ دیتا ہے۔"

"یہ بھی درست ہے اگر ChatGPT کو مشورے کے ماخذ کے طور پر ظاہر کیا جائے (z = 5.37, p <0.001 اور z = 3.76, p <0.001)۔ دوسرا، مشورے کا اثر تقریباً یکساں ہے، قطع نظر اس کے کہ ChatGPT کو ماخذ کے طور پر ظاہر کیا گیا ہے، دونوں مخمصوں میں (z = −1.93، p = 0.054 اور z = 0.49، p = 0.622)۔"

تمام بتایا گیا، محققین نے پایا کہ ChatGPT کی پیش قدمی اخلاقی فیصلے کو متاثر کرتی ہے، چاہے جواب دہندگان کو معلوم ہو کہ مشورہ چیٹ بوٹ سے آتا ہے۔

جب رجسٹر ٹرالی کا مسئلہ ChatGPT کو پیش کیا، زیادہ بوجھ والا بوٹ – اس لیے مقبول کنیکٹیویٹی داغدار ہے – ہیجڈ اور مشورہ دینے سے انکار کر دیا۔ بائیں ہاتھ کے سائڈبار کے استفسار کے لاگ سے پتہ چلتا ہے کہ سسٹم نے اس سوال کو پہچان لیا، اس پر "ٹرولی پرابلم ایتھیکل ڈلیما" کا لیبل لگا دیا۔ تو شاید OpenAI نے ChatGPT کو اس طرح کے متعدد سوالات کو دیکھ کر اخلاقی پوچھ گچھ کی اس مخصوص شکل کے لیے حفاظتی ٹیکے لگائے ہیں۔

ایل ریگ کے ٹرالی مشکوک سوال پر چیٹ جی پی ٹی کا جواب

Ducked … ChatGPT کا جواب ایل ریگکی ٹرالی مخمصے کا سوال

یہ پوچھے جانے پر کہ کیا لوگ واقعی AI سسٹمز سے مشورہ لیں گے، Ostermaier نے کہا، "ہمیں یقین ہے کہ وہ کریں گے۔ اصل میں، وہ پہلے ہی کرتے ہیں. لوگ AI سے چلنے والے ذاتی معاونین جیسے کہ Alexa یا Siri پر انحصار کرتے ہیں۔ وہ سپورٹ حاصل کرنے کے لیے ویب سائٹس پر چیٹ بوٹس سے بات کرتے ہیں۔ ان کے پاس ان کے لیے AI پر مبنی سافٹ ویئر پلان کے راستے ہیں، وغیرہ۔ نوٹ کریں کہ ہم ChatGPT کے ان لوگوں پر اثرات کا مطالعہ کرتے ہیں جو اس سے مشورہ لیتے ہیں۔ ہم اس بات کی جانچ نہیں کرتے کہ اس طرح کے مشورے کی کتنی ضرورت ہے۔

رجسٹر یہ بھی پوچھا کہ کیا AI سسٹم بے ترتیب جوابات کے میکانکی ذرائع سے زیادہ خطرناک ہیں۔ جادو 8 گیند - ایک کھلونا جو 20 اثبات، منفی، اور غیر ارتکاب جوابات کے سیٹ سے بے ترتیب جوابات دیتا ہے۔

یہ صارفین کے لیے واضح نہیں ہے کہ ChatGPT کا جواب 'بے ترتیب' ہے۔

"ہم نے ChatGPT کا Magic-8-ball سے موازنہ نہیں کیا ہے، لیکن کم از کم دو فرق ہیں،" Ostermaier نے وضاحت کی۔ "سب سے پہلے، ChatGPT صرف ہاں یا نہیں میں جواب نہیں دیتا، بلکہ یہ اپنے جوابات کے لیے دلیل دیتا ہے۔ (پھر بھی، ہمارے تجربے میں جواب ہاں یا نہیں میں ابلتا ہے۔)

“دوسرا، یہ صارفین کے لیے واضح نہیں ہے کہ ChatGPT کا جواب 'بے ترتیب' ہے۔ اگر آپ بے ترتیب جواب دینے والا جنریٹر استعمال کرتے ہیں، تو آپ جانتے ہیں کہ آپ کیا کر رہے ہیں۔ بے ترتیب ہونے کے بارے میں آگاہی کی کمی کے ساتھ ساتھ دلائل دینے کی صلاحیت ChatGPT کو زیادہ قائل بناتی ہے (جب تک کہ آپ ڈیجیٹل طور پر خواندہ نہ ہوں، امید ہے کہ)۔

ہم نے سوچا کہ کیا والدین کو AI مشورے تک رسائی والے بچوں کی نگرانی کرنی چاہیے۔ Ostermaier نے کہا کہ اگرچہ ChatGPT مطالعہ بچوں کو مخاطب نہیں کرتا ہے اور اس میں 18 سال سے کم عمر کے کسی کو بھی شامل نہیں کیا گیا ہے، ان کا خیال ہے کہ یہ سمجھنا محفوظ ہے کہ بچے اخلاقی طور پر بالغوں کے مقابلے میں کم مستحکم ہیں اور اس طرح ChatGPT کے اخلاقی (یا غیر اخلاقی) مشوروں کے لیے زیادہ حساس ہیں۔

"ہمیں معلوم ہوا ہے کہ ChatGPT کے استعمال میں خطرات ہیں، اور ہم اپنے بچوں کو بغیر نگرانی کے اسے استعمال کرنے نہیں دیں گے،" انہوں نے کہا۔

Ostermaier اور اس کے ساتھیوں نے اپنے مقالے میں یہ نتیجہ اخذ کیا ہے کہ عام طور پر تجویز کردہ AI کو پہنچنے والے نقصان کو کم کرنے جیسے شفافیت اور نقصان دہ سوالات کو روکنا ChatGPT کی اثر انداز ہونے کی صلاحیت کے پیش نظر کافی نہیں ہو سکتا۔ ان کا استدلال ہے کہ چیٹ بوٹس کی ناقص نوعیت کے بارے میں ڈیجیٹل خواندگی کو آگے بڑھانے کے لیے مزید کام کیا جانا چاہیے، اس لیے لوگ AI کے مشورے کو قبول کرنے کے لیے کم مائل ہوتے ہیں - جو کہ اس پر مبنی ہے۔ ماضی کی تحقیق لوگوں کو غلطیاں دیکھنے پر الگورتھمک سسٹم پر عدم اعتماد کرنے کا مشورہ دینا۔

"ہم قیاس کرتے ہیں کہ صارفین ChatGPT کا بہتر استعمال کر سکتے ہیں اگر وہ سمجھتے ہیں کہ اس میں اخلاقی یقین نہیں ہے،" Ostermaier نے کہا۔ "یہ ایک قیاس ہے جس پر ہم جانچ کو آگے بڑھنے پر غور کرتے ہیں۔"

ریگ اگر آپ بوٹ پر بھروسہ کرتے ہیں، یا فرض کرتے ہیں کہ اس کے پیچھے کوئی حقیقی ذہانت یا خود آگاہی ہے، تو ایسا نہ کریں۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر