انتقدت ميتا ثماني دعاوى قضائية تدعي أن وسائل التواصل الاجتماعي تؤذي الأطفال PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

انتقد ميتا ثماني دعاوى قضائية زعمت أن وسائل التواصل الاجتماعي تؤذي الأطفال

باختصار لم تتعرض شركة ميتا ، الشركة الأم لفيسبوك وإنستغرام ، لضربة واحدة ، ولا اثنتين ، بل ثماني دعاوى قضائية مختلفة تتهم خوارزمية وسائل التواصل الاجتماعي الخاصة بها بالتسبب في ضرر حقيقي للمستخدمين الشباب في جميع أنحاء الولايات المتحدة. 

تزعم الشكاوى المقدمة خلال الأسبوع الماضي أن منصات Meta على وسائل التواصل الاجتماعي قد صُممت لتكون مسببة للإدمان بشكل خطير ، مما يدفع الأطفال والمراهقين إلى مشاهدة المحتوى الذي يزيد من مخاطر اضطرابات الأكل ، والانتحار ، والاكتئاب ، واضطرابات النوم. 

"يجب اعتبار استخدام وسائل التواصل الاجتماعي بين الشباب مساهماً رئيسياً في أزمة الصحة العقلية التي نواجهها في البلاد ،" محمد آندي بيرشفيلد ، المحامي الذي يمثل شركة Beasley Allen Law Firm ، الذي يقود القضايا ، في بيان.

كان من الممكن تصميم هذه التطبيقات لتقليل أي ضرر محتمل ، ولكن بدلاً من ذلك ، تم اتخاذ قرار بإدمان المراهقين بقوة باسم أرباح الشركات. حان الوقت لكي تقر هذه الشركة بالمخاوف المتزايدة حول تأثير وسائل التواصل الاجتماعي على الصحة العقلية ورفاهية هذا الجزء الأكثر ضعفًا في مجتمعنا وتغيير الخوارزميات وأهداف العمل التي تسببت في الكثير من الضرر ".

تم رفع الدعاوى القضائية في المحاكم الفيدرالية في تكساس وتينيسي وكولورادو وديلاوير وفلوريدا وجورجيا وإلينوي وميسوري ، بالنسبة الى إلى بلومبرج. 

ما مدى أمان المركبات ذاتية القيادة حقًا؟

من الصعب تقييم سلامة برامج السيارات ذاتية القيادة مثل الطيار الآلي من Tesla ، مع الأخذ في الاعتبار قلة البيانات المعلنة والمقاييس المستخدمة في مثل هذه التقييمات مضللة. 

عادةً ما تبلغ الشركات التي تطور المركبات الذاتية عن عدد الأميال التي تقطعها تقنية القيادة الذاتية قبل أن يضطر السائقون البشريون إلى تولي زمام الأمور لمنع الأخطاء أو الاصطدامات. تظهر البيانات ، على سبيل المثال ، عددًا أقل من الحوادث التي تحدث عند تنشيط وضع الطيار الآلي في تسلا. لكن الخبراء يجادلون بأن هذا لا يعني بالضرورة أنه أكثر أمانًا. 

من المرجح أن يتم ضبط الطيار الآلي للقيادة على الطريق السريع ، حيث تكون الظروف أقل تعقيدًا للتعامل مع البرامج من التجول في مدينة مزدحمة. لا تشارك Tesla وشركات السيارات الأخرى البيانات للقيادة على طرق معينة من أجل مقارنة أفضل. 

"نحن نعلم أن السيارات التي تستخدم الطيار الآلي تتعطل بمعدل أقل مما يحدث عندما لا يتم استخدام الطيار الآلي" ، هذا ما قاله نوح جودال ، الباحث في مجلس أبحاث النقل في فيرجينيا ، قال اوقات نيويورك. "ولكن هل يتم قيادتهم بنفس الطريقة ، على نفس الطرق ، في نفس الوقت من اليوم ، من قبل نفس السائقين ؟."

أمرت الإدارة الوطنية للسلامة المرورية على الطرق السريعة الشركات بالإبلاغ عن الحوادث الخطيرة التي تنطوي على سيارات ذاتية القيادة في غضون 24 ساعة من وقوع الحادث العام الماضي. ولكن لم يتم الإعلان عن أي معلومات حتى الآن.

مبتدئ في مجال الذكاء الاصطناعي متهم بالاستخدام الخفي للعمالة البشرية وراء التكنولوجيا المستقلة

Nate ، وهي شركة ناشئة تقدر قيمتها بأكثر من 300 مليون دولار تدعي أنها تستخدم الذكاء الاصطناعي لملء معلومات دفع المتسوقين تلقائيًا على مواقع البيع بالتجزئة ، تدفع في الواقع للعمال لإدخال البيانات يدويًا مقابل 1 دولار.

يمكن أن يكون شراء الأشياء على الإنترنت مملاً. يجب عليك كتابة اسمك وعنوانك وتفاصيل بطاقة الائتمان الخاصة بك إذا لم يقم موقع الويب بحفظ المعلومات. تم تصميم Nate لمساعدة مستخدمي الإنترنت على تجنب الاضطرار إلى القيام بذلك في كل مرة يزورون فيها متجرًا عبر الإنترنت. زعم Nate ، الموصوف على أنه تطبيق AI ، أنه استخدم طرقًا آلية لملء البيانات الشخصية بعد أن قدم المستهلك طلبًا.

لكن البرنامج كان خادعًا للتطوير ، مع الأخذ في الاعتبار المجموعات المختلفة للأزرار التي تحتاج الخوارزميات للضغط عليها والاحتياطات الموجودة على مواقع الويب لإيقاف الروبوتات والمضاربين. لمحاولة جذب المزيد من المستهلكين إلى التطبيق ، عرض Nate على الأشخاص 50 دولارًا للإنفاق عبر الإنترنت في متاجر مثل Best Buy و Walmart. لكن الشركة الناشئة كافحت لجعل تقنيتها تعمل على تحقيقها بشكل صحيح. 

أفضل طريقة لتحقيق ذلك؟ زوره. وبدلاً من ذلك ، لجأ نيت إلى توظيف عمال في الفلبين لإدخال معلومات المستهلك الخاصة يدويًا ؛ تم إكمال الطلبات في بعض الأحيان بعد ساعات من تقديمها ، بالنسبة الى إلى المعلومات. وزُعم أن حوالي 60 إلى 100 بالمائة من الطلبات تمت معالجتها يدويًا. وقال متحدث باسم الشركة المبتدئة إن التقرير "غير صحيح والمزاعم التي تشكك في التكنولوجيا الخاصة بنا لا أساس لها على الإطلاق".

تريد داربا أن يكون الذكاء الاصطناعي أكثر جدارة بالثقة

أطلقت ذراع الأبحاث العسكرية الأمريكية ، DARPA ، برنامجًا جديدًا لتمويل التطوير في خوارزميات الذكاء الاصطناعي الهجينة ذات الرموز العصبية على أمل أن تؤدي التكنولوجيا إلى أنظمة جديرة بالثقة.

غالبًا ما يُشار إلى التعلم العميق الحديث باسم "الصندوق الأسود" ، حيث تكون أعماله الداخلية غير شفافة ولا يفهم الخبراء غالبًا كيفية وصول الشبكات العصبية إلى مخرجات عند إدخال مدخلات محددة. يعني الافتقار إلى الشفافية صعوبة تفسير النتائج ، مما يجعل نشرها في بعض السيناريوهات محفوفًا بالمخاطر. يعتقد البعض أن دمج أساليب التفكير الرمزي التقليدية القديمة يمكن أن يجعل النماذج أكثر جدارة بالثقة. 

"سيساعد تحفيز التفكير والأساليب الجديدة في هذا المجال على ضمان أن الأنظمة المستقلة ستعمل بأمان وتعمل على النحو المنشود ،" محمد سانديب نعمة ، مدير برنامج التعلم والاستدلال المؤكّد للرموز العصبية الجديد في داربا. "سيكون هذا جزءًا لا يتجزأ من الثقة ، وهو أمر أساسي لاعتماد وزارة الدفاع الناجح للحكم الذاتي."

ستمول المبادرة البحث في البنى الهجينة التي هي مزيج من الأنظمة الرمزية والذكاء الاصطناعي الحديث. تهتم DARPA بشكل خاص بالتطبيقات ذات الصلة بالجيش ، مثل النموذج الذي يمكنه اكتشاف ما إذا كانت الكيانات صديقة أو معادية أو محايدة ، على سبيل المثال ، وكذلك اكتشاف المناطق الخطرة أو الآمنة في القتال. ®

الطابع الزمني:

اكثر من السجل