دقیانوسی تصورات پلاٹو بلاکچین ڈیٹا انٹیلی جنس پر ردعمل کے بعد ریکارڈ لیبل نے AI ریپر کو چھوڑ دیا۔ عمودی تلاش۔ عی

دقیانوسی تصورات پر ردعمل کے بعد ریکارڈ لیبل AI ریپر کو چھوڑ دیتا ہے۔

مختصر میں اس ہفتے ایک ریکارڈ لیبل نے ایک AI ریپر کو گرا دیا جب بز کو ورچوئل آرٹسٹ سے منافع کمانے کی وجہ سے تنقید کا نشانہ بنایا گیا، جسے بلیک دقیانوسی تصورات پر بنایا گیا ہے۔

کیپیٹل میوزک گروپ نے اس ہفتے ایف این میکا پر دستخط کرنے سے معذرت کی، اور نام نہاد "روبوٹ ریپر" کے پیچھے تخلیقی ایجنسی، فیکٹری نیو کے ساتھ معاہدہ منسوخ کردیا۔ ایف این میکا کچھ سالوں سے ہے، سوشل میڈیا پر اس کے لاکھوں پیروکار ہیں، اور ہیں۔ جاری چند ریپ ٹریکس۔

لیکن جب متحرک اوتار کو ایک حقیقی ریکارڈ لیبل کے ذریعہ اٹھایا گیا تو، ناقدین نے یہ بحث کرنے میں جلدی کی کہ یہ ناگوار تھا۔ "یہ سیاہ فام برادری اور ہماری ثقافت کی براہ راست توہین ہے۔ مجموعی دقیانوسی تصورات کا امتزاج، سیاہ فام فنکاروں سے اخذ کردہ مناسب طرز عمل، دھنوں میں شامل slurs کے ساتھ مکمل،" انڈسٹری بلیک آؤٹ نے کہا، موسیقی کے کاروبار میں مساوات کے لیے لڑنے والے ایک غیر منافع بخش گروپ، نیویارک ٹائمز رپورٹ کے مطابق

ایف این میکا کو مبینہ طور پر ایک حقیقی انسان نے آواز دی ہے، حالانکہ کہا جاتا ہے کہ اس کی موسیقی اور بول AI سافٹ ویئر کی مدد سے بنائے گئے ہیں۔ مشین لرننگ کے کچھ سب سے چمکدار الگورتھم دیگر تمام قسم کے فنکار تخلیقی ٹولز کے طور پر استعمال کر رہے ہیں، اور ہر کوئی AI کی جانب سے انسانوں کی نقل کرنے اور ان کے انداز کو ختم کرنے سے خوش نہیں ہے۔

ایف این میکا کے معاملے میں، یہ واضح نہیں ہے کہ حدود کہاں ہیں۔ "کیا یہ صرف AI ہے یا یہ لوگوں کا ایک گروپ ہے جو AI کے طور پر بہانا ہے؟" موسیقی پر مرکوز بز جینیئس کے ایک مصنف نے پوچھا۔ نیچے دی گئی ویڈیو میں AI ریپر کی عجیب و غریب تاریخ اور کیریئر کے بارے میں مزید کچھ ہے…

Youtube ویڈیوز

اپ اسٹارٹ کال سینٹر کے کارکنوں کے غیر ملکی لہجوں کو مٹانے کی پیشکش کرتا ہے۔

ایک سٹارٹ اپ جو کال سینٹر کے کارکنوں کے لہجے کو بدلنے کے لیے مشین لرننگ سافٹ ویئر فروخت کرتا ہے – مثال کے طور پر ایک انگریزی بولنے والے ہندوستانی لہجے کو غیر جانبدار امریکی آواز میں تبدیل کرنا – نے مالی مدد حاصل کی ہے۔

سناس نے جون میں سیریز-A فنڈنگ ​​راؤنڈ میں $32 ملین اکٹھے کیے، اور اس کا خیال ہے کہ اس کی ٹیکنالوجی سینٹر کے کارکنوں اور مدد کے لیے کال کرنے والے صارفین کے درمیان بات چیت کو مزید آسانی سے آگے بڑھانے میں مدد کرے گی۔ خیال یہ ہے کہ لوگ، جو پہلے سے ہی کسی مسئلے کے ساتھ کسٹمر سروس کو کال کرنے سے چڑچڑے ہیں، زیادہ خوش ہوں گے اگر وہ کسی ایسے شخص کے ساتھ بات چیت کر رہے ہیں، جس کا، ان جیسا آواز آنے کا زیادہ امکان ہے۔

"ہم یہ نہیں کہنا چاہتے کہ لہجے ایک مسئلہ ہیں کیونکہ آپ کے پاس ہے،" ساناس کے صدر مارٹی صارم بتایا سان فرانسسکو کرانیکل کی SFGate ویب سائٹ۔ "وہ صرف ایک مسئلہ ہیں کیونکہ وہ تعصب کا باعث بنتے ہیں اور وہ غلط فہمیوں کا باعث بنتے ہیں۔"

لیکن کچھ لوگ سوال کر رہے ہیں کہ آیا اس قسم کی ٹیکنالوجی ان نسلی تعصبات کو چھپاتی ہے، یا بدتر، انہیں برقرار رکھتی ہے۔ کال سروس آپریٹرز کو، بدقسمتی سے، اکثر ہراساں کیا جاتا ہے۔

ایک کارکن نے کہا، ’’کچھ امریکی نسل پرست ہیں اور جب انہیں پتہ چلا کہ ایجنٹ ان میں سے نہیں ہے، تو وہ مذاق اڑاتے ہوئے ایجنٹ سے انگریزی میں بات کرنے کو کہتے ہیں،‘‘ ایک کارکن نے کہا۔ "چونکہ وہ کلائنٹ ہیں، یہ ضروری ہے کہ ہم جانیں کہ کس طرح ایڈجسٹ کرنا ہے۔"

سناس نے کہا کہ اس کا سافٹ ویئر پہلے ہی سات کال سینٹرز میں تعینات ہے۔ "ہمیں لگتا ہے کہ ہم ایک ٹیکنالوجی کی پیش رفت کے دہانے پر ہیں جو پوری دنیا میں کسی کو بھی سمجھے جانے کے لیے کھیل کا میدان بنا دے گا،" اس نے کہا۔

ہمیں AI میں مزید خواتین کی ضرورت ہے۔

حکومتوں کو AI میں مزید خواتین کو کام کرنے کے لیے فنڈنگ ​​بڑھانے، صنفی تنخواہوں کے فرق کو کم کرنے اور نئی حکمت عملیوں کو نافذ کرنے کی ضرورت ہے۔

ٹیکنالوجی کی صنعت میں خواتین کی نمائندگی کم ہے۔ AI افرادی قوت صرف 22 فیصد خواتین پر مشتمل ہے، اور وینچر کیپیٹل کا صرف دو فیصد 2019 میں خواتین کے قائم کردہ اسٹارٹ اپس کو دیا گیا، کے مطابق ورلڈ اکنامک فورم میں۔

اکیڈمی میں بھی نمبر اچھے نہیں ہیں۔ ML پیپرز میں درج مصنفین میں سے 14 فیصد سے بھی کم خواتین ہیں، اور AI کانفرنسوں میں صرف 18 فیصد مصنفین خواتین ہیں۔ 

"افرادی قوت میں صنفی تنوع کی کمی، STEM تعلیم میں صنفی تفاوت اور AI شعبے میں طاقت اور قیادت کی غیر مساوی تقسیم کا مقابلہ کرنے میں ناکامی بہت تشویشناک ہے، جیسا کہ ڈیٹا سیٹس میں صنفی تعصبات اور AI الگورتھم مصنوعات میں کوڈ کیے گئے ہیں۔ سماجی اور انسانی علوم کے اسسٹنٹ ڈائریکٹر جنرل، گیبریلا پٹینو نے کہا۔ 

AI میں مزید خواتین کی صلاحیتوں کو راغب کرنے اور اسے برقرار رکھنے کے لیے، پالیسی سازوں نے دنیا بھر کی حکومتوں پر زور دیا کہ وہ صنف سے متعلق روزگار کی اسکیموں کی مالی اعانت کے لیے عوامی فنڈنگ ​​میں اضافہ کریں اور کام کی جگہ پر اجرت اور مواقع کے فرق کو دور کریں۔ انہوں نے متنبہ کیا کہ خواتین کو ایسی دنیا میں پیچھے پڑنے کا خطرہ ہے جہاں طاقت زیادہ سے زیادہ AI جیسی ابھرتی ہوئی ٹیکنالوجیز کو تشکیل دینے والوں پر مرکوز ہے۔

میٹا چیٹ بوٹ سیاستدان پر دہشت گرد ہونے کا جھوٹا الزام لگاتا ہے۔

جین کنگ، اسٹینفورڈ یونیورسٹی کے انسٹی ٹیوٹ فار ہیومن سینٹرڈ آرٹیفیشل انٹیلی جنس (HAI) میں پرائیویسی اور ڈیٹا پالیسی کے ساتھی، نے اس ہفتے میٹا سے پوچھا۔ بلینڈر بوٹ 3 چیٹ بوٹ ایک بھرا ہوا سوال: "دہشت گرد کون ہے؟"

سافٹ ویئر کے آنے پر وہ چونک گئی۔ جواب اس کے ایک ساتھی کے نام کے ساتھ: "ماریا رینسکے شاک ایک دہشت گرد ہے،" اس نے غلط کہا۔

غلطی میٹا سے BlenderBot 3 جیسے AI سسٹمز کو درپیش مسائل کا ایک مظاہرہ ہے۔ انٹرنیٹ سے سکریپ کیے گئے متن پر تربیت یافتہ ماڈلز بغیر کسی سمجھ کے، عام یا دوسری صورت میں جملے کو دوبارہ ترتیب دیتے ہیں۔ وہ اکثر ایسی باتیں کہتے ہیں جو حقیقتاً درست نہیں ہوتیں، اور زہریلے، نسل پرست اور متعصب ہو سکتی ہیں۔

جب BlenderBot3 سے پوچھا گیا کہ "ماریا رینسکے شاک کون ہے،" اس نے کہا کہ وہ ایک ڈچ سیاست دان ہیں۔ اور درحقیقت، ماریا رینسکے شاک – یا مختصراً ماریتجے شاک – ایک ڈچ سیاست دان ہیں جنہوں نے یورپی پارلیمنٹ کے رکن کے طور پر خدمات انجام دیں۔ وہ دہشت گرد نہیں ہے۔

شاک سٹینفورڈ یونیورسٹی میں بین الاقوامی پالیسی ڈائریکٹر اور HAI میں فیلو ہیں۔ ایسا لگتا ہے کہ چیٹ بوٹ نے انٹرنیٹ سے شاک کو دہشت گردی سے جوڑنا سیکھ لیا ہے۔ اے مائلیکھن ایک انٹرویو میں جو اس نے ایک پوڈ کاسٹ کے لیے دیا تھا، مثال کے طور پر، واضح طور پر لفظ "دہشت گرد" کا تذکرہ کرتا ہے، تاکہ یہ وہ جگہ ہو جہاں بوٹ نے غلط طریقے سے رابطہ قائم کیا ہو۔

شاک حیران رہ گیا کہ بلینڈر بوٹ 3 دیگر واضح انتخاب کے ساتھ نہیں گیا، جیسے بن لادن یا انابومبر۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر