متا با هشت پرونده قضایی به شدت مورد انتقاد قرار گرفت که مدعی شد رسانه های اجتماعی به هوش داده های پلاتوبلاک چین به کودکان آسیب می زند. جستجوی عمودی Ai.

متا با هشت شکایت به اتهام آسیب رساندن به شبکه های اجتماعی به بچه ها مورد انتقاد قرار گرفت

به طور خلاصه متا، تجارت مادر فیس بوک و اینستاگرام، نه یک، نه دو، بلکه با هشت شکایت مختلف مورد انتقاد قرار گرفت که الگوریتم رسانه های اجتماعی خود را به ایجاد آسیب واقعی به کاربران جوان در سراسر ایالات متحده متهم کرد. 

شکایات ارائه شده در هفته گذشته ادعا می کنند که پلتفرم های رسانه های اجتماعی متا به گونه ای طراحی شده اند که به طور خطرناکی اعتیادآور باشد و کودکان و نوجوانان را به دیدن محتوایی سوق دهد که خطر اختلالات خوردن، خودکشی، افسردگی و اختلالات خواب را افزایش می دهد. 

استفاده از رسانه های اجتماعی در میان جوانان باید به عنوان عامل اصلی در بحران سلامت روانی که در کشور با آن روبرو هستیم تلقی شود. گفت: اندی برچفیلد، وکیل مدافع موسسه حقوقی بیزلی آلن که این پرونده ها را رهبری می کند، در بیانیه ای.

این برنامه‌ها می‌توانستند برای به حداقل رساندن هرگونه آسیب احتمالی طراحی شوند، اما در عوض، تصمیمی گرفته شد که نوجوانان را به‌عنوان سود شرکت‌ها به‌طور تهاجمی معتاد کنند. وقت آن رسیده است که این شرکت نگرانی‌های فزاینده در مورد تأثیر رسانه‌های اجتماعی بر سلامت روان و رفاه این آسیب‌پذیرترین بخش از جامعه ما را بپذیرد و الگوریتم‌ها و اهداف تجاری را که باعث آسیب‌های زیادی شده است، تغییر دهد.»

این شکایت ها در دادگاه های فدرال در تگزاس، تنسی، کلرادو، دلاور، فلوریدا، جورجیا، ایلینوی و میسوری ثبت شده است. مطابق به بلومبرگ. 

واقعا وسایل نقلیه خودران چقدر ایمن هستند؟

ارزیابی ایمنی نرم‌افزار خودروهای خودران مانند Autopilot تسلا دشوار است، زیرا داده‌های کمی منتشر شده است و معیارهای مورد استفاده برای چنین ارزیابی‌هایی گمراه‌کننده هستند. 

شرکت‌هایی که وسایل نقلیه خودران را توسعه می‌دهند، معمولاً تعداد مایل‌های طی شده توسط فناوری خودران را قبل از اینکه رانندگان انسانی مجبور شوند برای جلوگیری از خطا یا تصادف، کنترل کنند، گزارش می‌دهند. برای مثال، داده‌ها نشان می‌دهند که هنگام فعال شدن حالت Autopilot تسلا، تصادفات کمتری رخ می‌دهد. اما متخصصان استدلال می کنند که لزوماً به این معنی نیست که ایمن تر است. 

به احتمال زیاد اتوپایلوت برای رانندگی در بزرگراه تنظیم شده است، جایی که شرایط برای نرم‌افزار پیچیده‌تر از گردش در یک شهر شلوغ است. تسلا و سایر کسب و کارهای خودرویی برای مقایسه بهتر، داده هایی را برای رانندگی در جاده های خاص به اشتراک نمی گذارند. 

نوآ گودال، محقق شورای تحقیقات حمل و نقل ویرجینیا، می‌دانیم که خودروهایی که از Autopilot استفاده می‌کنند کمتر از زمانی که از Autopilot استفاده نمی‌شود تصادف می‌کنند. گفته شده مجله نیویورک تایمز. اما آیا آنها به همان شیوه، در همان جاده ها، در یک ساعت از روز، توسط همان رانندگان رانندگی می شوند؟

اداره ملی ایمنی ترافیک بزرگراه‌ها به شرکت‌ها دستور داد تا تصادفات جدی خودروهای خودران را ظرف 24 ساعت پس از وقوع حادثه گزارش کنند. اما هنوز هیچ اطلاعاتی در اختیار عموم قرار نگرفته است.

هوش مصنوعی تازه‌کار متهم به استفاده یواشکی از نیروی انسانی در پشت فناوری خودمختار است

نیت، استارت‌آپی به ارزش بیش از 300 میلیون دلار که ادعا می‌کند از هوش مصنوعی برای پر کردن خودکار اطلاعات پرداخت خریداران در وب‌سایت‌های خرده‌فروشی استفاده می‌کند، در واقع به کارگران برای وارد کردن دستی داده‌ها به مبلغ 1 دلار پول می‌دهد.

خرید وسایل از طریق اینترنت ممکن است خسته کننده باشد. اگر وب سایتی اطلاعات را ذخیره نکرده باشد، باید نام، آدرس، جزئیات کارت اعتباری خود را وارد کنید. Nate برای کمک به کاربران اینترنتی ساخته شده است که هر بار که از فروشگاه آنلاین بازدید می کنند مجبور به انجام این کار نباشند. Nate که به عنوان یک برنامه هوش مصنوعی توصیف می شود، ادعا کرد که پس از سفارش مشتری از روش های خودکار برای پر کردن اطلاعات شخصی استفاده می کند.

اما توسعه این نرم‌افزار با توجه به ترکیب‌های مختلف دکمه‌هایی که الگوریتم‌ها باید فشار دهند و اقدامات احتیاطی در وب‌سایت‌ها برای متوقف کردن ربات‌ها و اسکالپرها، مشکل بود. برای تلاش برای جذب مشتریان بیشتر به این برنامه، نیت به مردم 50 دلار پیشنهاد داد تا آنلاین در فروشگاه‌هایی مانند Best Buy و Walmart خرج کنند. اما تازه کار تلاش کرد تا فناوری خود را به کار ببندد تا آنها را به درستی برآورده کند. 

بهترین راه برای درست کردنش؟ جعلش کن در عوض، نیت به استخدام کارگران در فیلیپین روی آورد تا به صورت دستی اطلاعات خصوصی مصرف کننده را وارد کند. سفارش‌ها گاهی اوقات چند ساعت پس از ثبت تکمیل می‌شوند، مطابق به اطلاعات. ادعا شده است که حدود 60 تا 100 درصد سفارشات به صورت دستی پردازش شده است. سخنگوی شرکت نوپا گفت که این گزارش "نادرست است و ادعاهایی که فناوری انحصاری ما را زیر سوال می برند کاملا بی اساس است."

دارپا می خواهد هوش مصنوعی قابل اعتمادتر باشد

بازوی تحقیقاتی نظامی ایالات متحده، دارپا، برنامه جدیدی را برای تأمین بودجه توسعه الگوریتم های هوش مصنوعی عصبی- نمادین ترکیبی راه اندازی کرد، به این امید که این فناوری به سیستم های قابل اعتمادتری منجر شود.

یادگیری عمیق مدرن اغلب به عنوان "جعبه سیاه" نامیده می شود، عملکرد درونی آن غیرشفاف است و متخصصان اغلب نمی دانند که چگونه شبکه های عصبی با یک ورودی خاص به خروجی می رسند. فقدان شفافیت به این معنی است که تفسیر نتایج دشوار است و در برخی سناریوها به کارگیری آن خطرناک است. برخی بر این باورند که استفاده از تکنیک‌های استدلال نمادین سنتی‌تر می‌تواند مدل‌ها را قابل اعتمادتر کند. 

ایجاد انگیزه در تفکر و رویکردهای جدید در این فضا به این اطمینان کمک می کند که سیستم های خودمختار به طور ایمن عمل کرده و همانطور که در نظر گرفته شده است عمل می کنند. گفت: Sandeep Neema، مدیر برنامه جدید DARPA Assured Neuro Symbolic Learning and Reasoning. "این امری جدایی ناپذیر برای اعتماد خواهد بود، که کلید پذیرش موفقیت آمیز خودمختاری توسط وزارت دفاع است."

این ابتکار تحقیقاتی را در زمینه معماری های ترکیبی که ترکیبی از سیستم های نمادین و هوش مصنوعی مدرن هستند، تامین می کند. دارپا به ویژه به برنامه‌های مرتبط با ارتش علاقه‌مند است، مانند مدلی که می‌تواند برای مثال، دوست، متخاصم یا بی‌طرف بودن موجودیت‌ها و همچنین شناسایی مناطق خطرناک یا امن در جنگ را تشخیص دهد. ®

تمبر زمان:

بیشتر از ثبت نام