سوشل میڈیا نے بچوں کو پلاٹو بلاکچین ڈیٹا انٹیلی جنس کو نقصان پہنچانے کا دعویٰ کرتے ہوئے آٹھ مقدموں کے ساتھ میٹا کو تنقید کا نشانہ بنایا۔ عمودی تلاش۔ عی

سوشل میڈیا بچوں کو تکلیف پہنچانے کا دعویٰ کرتے ہوئے میٹا نے آٹھ قانونی چارہ جوئی کی۔

مختصر میں فیس بک اور انسٹاگرام کے پیرنٹ بِز، میٹا کو ایک نہیں، دو نہیں بلکہ آٹھ مختلف مقدمات کا سامنا کرنا پڑا جس میں اس کے سوشل میڈیا الگورتھم پر پورے امریکہ میں نوجوان صارفین کو حقیقی نقصان پہنچانے کا الزام لگایا گیا۔ 

گزشتہ ہفتے درج کی گئی شکایات میں دعویٰ کیا گیا ہے کہ میٹا کے سوشل میڈیا پلیٹ فارمز کو خطرناک طور پر لت لگانے کے لیے ڈیزائن کیا گیا ہے، بچوں اور نوعمروں کو ایسا مواد دیکھنے کے لیے تیار کیا گیا ہے جس سے کھانے کی خرابی، خودکشی، ڈپریشن اور نیند کی خرابی کا خطرہ بڑھ جاتا ہے۔ 

"نوجوانوں میں سوشل میڈیا کے استعمال کو ملک میں ذہنی صحت کے بحران میں ایک اہم کردار کے طور پر دیکھا جانا چاہئے،" نے کہا اینڈی برچفیلڈ، بیسلی ایلن لا فرم کی نمائندگی کرنے والے وکیل، ایک بیان میں، مقدمات کی قیادت کر رہے ہیں۔

"ان ایپلی کیشنز کو کسی ممکنہ نقصان کو کم کرنے کے لیے ڈیزائن کیا جا سکتا تھا، لیکن اس کے بجائے، کارپوریٹ منافع کے نام پر نوجوانوں کو جارحانہ طور پر عادی بنانے کا فیصلہ کیا گیا۔ اب وقت آگیا ہے کہ اس کمپنی کے لیے ہمارے معاشرے کے اس انتہائی کمزور حصے کی ذہنی صحت اور بہبود پر سوشل میڈیا کے اثرات کے ارد گرد بڑھتے ہوئے خدشات کو تسلیم کیا جائے اور الگورتھم اور کاروباری مقاصد کو تبدیل کیا جائے جس سے بہت زیادہ نقصان ہوا ہے۔"

یہ مقدمے ٹیکساس، ٹینیسی، کولوراڈو، ڈیلاویئر، فلوریڈا، جارجیا، الینوائے اور مسوری کی وفاقی عدالتوں میں دائر کیے گئے ہیں۔ کے مطابق بلومبرگ. 

خود مختار گاڑیاں واقعی کتنی محفوظ ہیں؟

ٹیسلا کے آٹو پائلٹ جیسے سیلف ڈرائیونگ کار سافٹ ویئر کی حفاظت کا اندازہ لگانا مشکل ہے، اس بات پر غور کرتے ہوئے کہ بہت کم ڈیٹا پبلک کیا گیا ہے اور اس طرح کے جائزوں کے لیے استعمال ہونے والے میٹرکس گمراہ کن ہیں۔ 

خود مختار گاڑیاں تیار کرنے والی کمپنیاں عام طور پر خود ڈرائیونگ ٹیکنالوجی کے ذریعے چلنے والے میلوں کی تعداد کی اطلاع دیتی ہیں اس سے پہلے کہ انسانی ڈرائیوروں کو غلطیوں یا کریشوں کو روکنے کے لیے کام کرنا پڑے۔ اعداد و شمار، مثال کے طور پر، Tesla کے آٹو پائلٹ موڈ کے فعال ہونے پر کم حادثات پیش آتے ہیں۔ لیکن ماہرین کا کہنا ہے کہ اس کا لازمی مطلب یہ نہیں ہے کہ یہ زیادہ محفوظ ہے۔ 

ہائی وے پر گاڑی چلانے کے لیے آٹو پائلٹ کا زیادہ امکان ہوتا ہے، جہاں مصروف شہر میں گھومنے کی بجائے سافٹ ویئر کے لیے حالات کم پیچیدہ ہوتے ہیں۔ Tesla اور دیگر آٹو کاروبار بہتر موازنہ کے لیے مخصوص سڑکوں پر گاڑی چلانے کے لیے ڈیٹا کا اشتراک نہیں کرتے ہیں۔ 

ورجینیا ٹرانسپورٹیشن ریسرچ کونسل کے ایک محقق نوح گڈال، "ہم جانتے ہیں کہ آٹو پائلٹ استعمال کرنے والی کاریں آٹو پائلٹ کے استعمال کے مقابلے میں کم حادثے کا شکار ہوتی ہیں۔" بتایا نیو یارک ٹائمز. "لیکن کیا وہ ایک ہی راستے پر، ایک ہی سڑکوں پر، دن کے ایک ہی وقت میں، ایک ہی ڈرائیور کے ذریعے چلائے جا رہے ہیں؟"

نیشنل ہائی وے ٹریفک سیفٹی ایڈمنسٹریشن نے کمپنیوں کو حکم دیا کہ وہ گزشتہ سال ہونے والے حادثے کے 24 گھنٹوں کے اندر خود سے چلنے والی کاروں کے سنگین حادثات کی اطلاع دیں۔ لیکن ابھی تک کوئی اطلاع عام نہیں کی گئی۔

AI upstart پر خود مختار ٹیکنالوجی کے پیچھے چھپے چھپے انسانی محنت کا استعمال کرنے کا الزام ہے۔

Nate، ایک سٹارٹ اپ جس کی قیمت $300 ملین سے زیادہ ہے جو خوردہ ویب سائٹس پر خریداروں کی ادائیگی کی معلومات کو خود بخود بھرنے کے لیے AI کا استعمال کرنے کا دعویٰ کرتی ہے، دراصل کارکنوں کو $1 کے لیے ڈیٹا کو دستی طور پر داخل کرنے کے لیے ادائیگی کرتی ہے۔

انٹرنیٹ پر چیزیں خریدنا مشکل ہو سکتا ہے۔ اگر کسی ویب سائٹ نے معلومات کو محفوظ نہیں کیا ہے تو آپ کو اپنا نام، پتہ، کریڈٹ کارڈ کی تفصیلات ٹائپ کرنا ہوں گی۔ نیٹ کو نیٹیزنز کی مدد کے لیے بنایا گیا تھا کہ جب بھی وہ کسی آن لائن اسٹور پر جاتے ہیں تو ایسا کرنے سے گریز کریں۔ ایک AI ایپ کے طور پر بیان کردہ، Nate نے دعویٰ کیا کہ اس نے صارف کے آرڈر دینے کے بعد ذاتی ڈیٹا کو بھرنے کے لیے خودکار طریقے استعمال کیے ہیں۔

لیکن سافٹ ویئر تیار کرنا مشکل تھا، بٹنوں کے مختلف امتزاج کو مدنظر رکھتے ہوئے الگورتھم کو دبانے کی ضرورت ہے اور ویب سائٹس پر بوٹس اور اسکیلپرز کو روکنے کے لیے احتیاطی تدابیر۔ مزید صارفین کو ایپ کی طرف راغب کرنے کے لیے، Nate نے لوگوں کو Best Buy اور Walmart جیسی دکانوں پر آن لائن خرچ کرنے کے لیے $50 کی پیشکش کی۔ لیکن اپ اسٹارٹ نے اپنی ٹیکنالوجی کو صحیح طریقے سے پورا کرنے کے لیے کام کرنے کے لیے جدوجہد کی۔ 

اسے بنانے کا بہترین طریقہ؟ جعلی کرو. اس کے بجائے، نیٹ نے فلپائن میں صارفین کی نجی معلومات کو دستی طور پر داخل کرنے کے لیے کارکنوں کی خدمات حاصل کرنے کی طرف رجوع کیا۔ آرڈرز بعض اوقات ان کے رکھے جانے کے چند گھنٹوں بعد مکمل ہو جاتے تھے، کے مطابق معلومات کو. یہ الزام لگایا گیا تھا کہ تقریباً 60 سے 100 فیصد آرڈرز پر دستی طور پر کارروائی کی جاتی ہے۔ اپ اسٹارٹ کے ترجمان نے کہا کہ یہ رپورٹ "غلط ہے اور ہماری ملکیتی ٹیکنالوجی پر سوال اٹھانے والے دعوے مکمل طور پر بے بنیاد ہیں۔"

DARPA چاہتا ہے کہ AI زیادہ قابل اعتماد ہو۔

امریکی ملٹری ریسرچ آرم، DARPA نے ہائبرڈ نیورو-سمبولک AI الگورتھم میں ترقی کے لیے فنڈ فراہم کرنے کے لیے ایک نیا پروگرام شروع کیا اس امید پر کہ یہ ٹیکنالوجی مزید قابل اعتماد نظاموں کا باعث بنے گی۔

جدید گہری سیکھنے کو اکثر "بلیک باکس" کہا جاتا ہے، اس کے اندرونی کام مبہم ہوتے ہیں اور ماہرین اکثر یہ نہیں سمجھ پاتے ہیں کہ ایک مخصوص ان پٹ کے ذریعے عصبی نیٹ ورک کس طرح آؤٹ پٹ پر پہنچتے ہیں۔ شفافیت کی کمی کا مطلب ہے کہ نتائج کی تشریح کرنا مشکل ہے، جس کی وجہ سے کچھ منظرناموں میں تعینات کرنا خطرناک ہو جاتا ہے۔ کچھ کا خیال ہے کہ زیادہ روایتی پرانے زمانے کی علامتی استدلال کی تکنیکوں کو شامل کرنا ماڈل کو زیادہ قابل اعتماد بنا سکتا ہے۔ 

"اس جگہ میں نئی ​​سوچ اور نقطہ نظر کو تحریک دینے سے اس بات کو یقینی بنانے میں مدد ملے گی کہ خود مختار نظام محفوظ طریقے سے کام کریں گے اور مطلوبہ کارکردگی کا مظاہرہ کریں گے۔" نے کہا سندیپ نیما، DARPA کے نئے Assured Neuro Symbolic Learning and Reasoning پروگرام کے پروگرام مینیجر۔ "یہ اعتماد کے لیے لازم و ملزوم ہو گا، جو محکمہ دفاع کی خود مختاری کے کامیاب اختیار کی کلید ہے۔"

یہ پہل ہائبرڈ فن تعمیر میں تحقیق کو فنڈ دے گا جو علامتی نظام اور جدید AI کا مرکب ہیں۔ DARPA خاص طور پر ایسی ایپلی کیشنز میں دلچسپی رکھتا ہے جو فوج سے متعلق ہوں، جیسے کہ ایک ایسا ماڈل جو یہ پتہ لگا سکے کہ آیا ادارے دوستانہ، مخالف یا غیر جانبدار تھے، مثال کے طور پر، نیز جنگ میں خطرناک یا محفوظ علاقوں کا پتہ لگانا۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر