اے آئی اسسٹنٹ صارفین ان کے ساتھ 'جذباتی اٹیچمنٹ' پیدا کر سکتے ہیں، گوگل نے خبردار کیا ہے - ڈکرپٹ

AI اسسٹنٹ صارفین ان کے ساتھ ایک 'جذباتی اٹیچمنٹ' تیار کر سکتے ہیں، گوگل نے خبردار کیا - ڈکرپٹ

AI Assistant Users Could Develop An ‘Emotional Attachment’ to Them, Google Warns - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Virtual personal assistants powered by artificial intelligence are becoming ubiquitous across technology platforms, with every major tech firm adding AI to their services and dozens of خصوصی خدمات tumbling onto the market. While immensely useful, researchers from Google say humans could become too emotionally attached to them, leading to a host of negative social consequences.

ایک نئی ریسرچ پیپر from Google’s DeepMind AI research laboratory highlights the potential benefits of advanced, personalized AI assistants to transform various aspects of society, saying they “could radically alter the nature of work, education, and creative pursuits as well as how we communicate, coordinate, and negotiate with one another, ultimately influencing who we want to be and to become.”

اگر AI کی ترقی سوچی سمجھی منصوبہ بندی کے بغیر تیزی سے آگے بڑھتی رہی تو یقیناً یہ بڑا اثر دو دھاری تلوار ثابت ہو سکتا ہے۔

ایک اہم خطرہ؟ نامناسب طور پر قریبی بانڈز کی تشکیل — جو اس صورت میں بڑھ سکتی ہے جب اسسٹنٹ کو انسان نما نمائندگی یا چہرے کے ساتھ پیش کیا جائے۔ کاغذ کہتا ہے، "یہ مصنوعی ایجنٹ صارف کے لیے اپنے افلاطونی یا رومانوی پیار کا بھی دعویٰ کر سکتے ہیں، جو صارفین کے لیے AI کے ساتھ دیرینہ جذباتی وابستگی کی بنیاد ڈالتے ہیں۔"

بغیر نشان کے چھوڑ دیا گیا، اس طرح کا منسلکہ صارف کے لیے خود مختاری کے نقصان اور سماجی روابط کے نقصان کا باعث بن سکتا ہے کیونکہ AI انسانی تعامل کی جگہ لے سکتا ہے۔

This risk is not purely theoretical. Even when AI was in a somewhat primitive state, an AI chatbot was influential enough to convince an user to commit suicide after a long chat back in 2023. Eight years ago, an AI-powered email assistant named “Amy Ingram” was realistic enough to prompt some users to send love notes and even attempt to visit her at work.

ڈیپ مائنڈ کی اخلاقیات کی تحقیقی ٹیم کے ایک تحقیقی سائنسدان اور مقالے کے شریک مصنف، آئیسن گیبریل نے جواب نہیں دیا۔ ڈکرپٹ کی تبصرہ کے لئے درخواست.

تاہم، ایک ٹویٹ میں، گاربریل نے متنبہ کیا کہ "اسسٹنٹ کی بڑھتی ہوئی ذاتی اور انسان نما شکلیں، بشریت، رازداری، اعتماد اور AI کے ساتھ مناسب تعلقات کے بارے میں نئے سوالات کا آغاز کرتی ہیں۔"

کیونکہ "لاکھوں AI معاونین کو سماجی سطح پر تعینات کیا جا سکتا ہے جہاں وہ ایک دوسرے کے ساتھ اور غیر استعمال کنندگان کے ساتھ بات چیت کریں گے،" گیبریل نے کہا کہ وہ اس نئے سماجی رجحان کے لیے مزید حفاظتی اقدامات اور زیادہ جامع نقطہ نظر کی ضرورت پر یقین رکھتے ہیں۔

تحقیقی مقالہ AI معاونین کی ترقی میں قدر کی صف بندی، حفاظت اور غلط استعمال کی اہمیت پر بھی بات کرتا ہے۔ اگرچہ AI معاونین صارفین کو ان کی فلاح و بہبود کو بہتر بنانے، ان کی تخلیقی صلاحیتوں کو بڑھانے اور اپنے وقت کو بہتر بنانے میں مدد کر سکتے ہیں، لیکن مصنفین نے اضافی خطرات جیسے صارف اور سماجی مفادات کے ساتھ غلط ہم آہنگی، دوسروں پر اقدار کا مسلط کرنا، بدنیتی پر مبنی مقاصد کے لیے استعمال، اور کمزوری سے خبردار کیا۔ مخالفانہ حملوں کے لیے۔

ان خطرات سے نمٹنے کے لیے، ڈیپ مائنڈ ٹیم AI معاونین کے لیے جامع تشخیص تیار کرنے اور سماجی طور پر فائدہ مند AI معاونین کی ترقی کو تیز کرنے کی سفارش کرتی ہے۔

"ہم فی الحال تکنیکی اور معاشرتی تبدیلی کے اس دور کے آغاز میں کھڑے ہیں۔ اس لیے ہمارے پاس اب کام کرنے کا ایک موقع ہے — بطور ڈویلپرز، محققین، پالیسی ساز، اور عوامی اسٹیک ہولڈرز — اس قسم کے AI معاونین کی شکل دینے کے لیے جسے ہم دنیا میں دیکھنا چاہتے ہیں۔

AI misalignment can be mitigated through Reinforcement Learning Through Human Feedback (RLHF), which is used to train AI models. Experts like Paul Christiano, who ran the language model alignment team at OpenAI and now leads the non-profit Alignment Research Center, warn that improper management of AI training methods could end in catastrophe.

“I think maybe there’s something like a 10-20% chance of AI takeover, [with] many [or] most humans dead, ” Paul Christiano نے کہا on the Bankless podcast last year. “I take it quite seriously.”

کی طرف سے ترمیم ریان اوزاوا.

کرپٹو خبروں سے باخبر رہیں، اپنے ان باکس میں روزانہ کی تازہ ترین معلومات حاصل کریں۔

ٹائم اسٹیمپ:

سے زیادہ خرابی