به طور خلاصه متا، تجارت مادر فیس بوک و اینستاگرام، نه یک، نه دو، بلکه با هشت شکایت مختلف مورد انتقاد قرار گرفت که الگوریتم رسانه های اجتماعی خود را به ایجاد آسیب واقعی به کاربران جوان در سراسر ایالات متحده متهم کرد.
شکایات ارائه شده در هفته گذشته ادعا می کنند که پلتفرم های رسانه های اجتماعی متا به گونه ای طراحی شده اند که به طور خطرناکی اعتیادآور باشد و کودکان و نوجوانان را به دیدن محتوایی سوق دهد که خطر اختلالات خوردن، خودکشی، افسردگی و اختلالات خواب را افزایش می دهد.
استفاده از رسانه های اجتماعی در میان جوانان باید به عنوان عامل اصلی در بحران سلامت روانی که در کشور با آن روبرو هستیم تلقی شود. گفت: اندی برچفیلد، وکیل مدافع موسسه حقوقی بیزلی آلن که این پرونده ها را رهبری می کند، در بیانیه ای.
این برنامهها میتوانستند برای به حداقل رساندن هرگونه آسیب احتمالی طراحی شوند، اما در عوض، تصمیمی گرفته شد که نوجوانان را بهعنوان سود شرکتها بهطور تهاجمی معتاد کنند. وقت آن رسیده است که این شرکت نگرانیهای فزاینده در مورد تأثیر رسانههای اجتماعی بر سلامت روان و رفاه این آسیبپذیرترین بخش از جامعه ما را بپذیرد و الگوریتمها و اهداف تجاری را که باعث آسیبهای زیادی شده است، تغییر دهد.»
این شکایت ها در دادگاه های فدرال در تگزاس، تنسی، کلرادو، دلاور، فلوریدا، جورجیا، ایلینوی و میسوری ثبت شده است. مطابق به بلومبرگ.
واقعا وسایل نقلیه خودران چقدر ایمن هستند؟
ارزیابی ایمنی نرمافزار خودروهای خودران مانند Autopilot تسلا دشوار است، زیرا دادههای کمی منتشر شده است و معیارهای مورد استفاده برای چنین ارزیابیهایی گمراهکننده هستند.
شرکتهایی که وسایل نقلیه خودران را توسعه میدهند، معمولاً تعداد مایلهای طی شده توسط فناوری خودران را قبل از اینکه رانندگان انسانی مجبور شوند برای جلوگیری از خطا یا تصادف، کنترل کنند، گزارش میدهند. برای مثال، دادهها نشان میدهند که هنگام فعال شدن حالت Autopilot تسلا، تصادفات کمتری رخ میدهد. اما متخصصان استدلال می کنند که لزوماً به این معنی نیست که ایمن تر است.
به احتمال زیاد اتوپایلوت برای رانندگی در بزرگراه تنظیم شده است، جایی که شرایط برای نرمافزار پیچیدهتر از گردش در یک شهر شلوغ است. تسلا و سایر کسب و کارهای خودرویی برای مقایسه بهتر، داده هایی را برای رانندگی در جاده های خاص به اشتراک نمی گذارند.
نوآ گودال، محقق شورای تحقیقات حمل و نقل ویرجینیا، میدانیم که خودروهایی که از Autopilot استفاده میکنند کمتر از زمانی که از Autopilot استفاده نمیشود تصادف میکنند. گفته شده مجله نیویورک تایمز. اما آیا آنها به همان شیوه، در همان جاده ها، در یک ساعت از روز، توسط همان رانندگان رانندگی می شوند؟
اداره ملی ایمنی ترافیک بزرگراهها به شرکتها دستور داد تا تصادفات جدی خودروهای خودران را ظرف 24 ساعت پس از وقوع حادثه گزارش کنند. اما هنوز هیچ اطلاعاتی در اختیار عموم قرار نگرفته است.
هوش مصنوعی تازهکار متهم به استفاده یواشکی از نیروی انسانی در پشت فناوری خودمختار است
نیت، استارتآپی به ارزش بیش از 300 میلیون دلار که ادعا میکند از هوش مصنوعی برای پر کردن خودکار اطلاعات پرداخت خریداران در وبسایتهای خردهفروشی استفاده میکند، در واقع به کارگران برای وارد کردن دستی دادهها به مبلغ 1 دلار پول میدهد.
خرید وسایل از طریق اینترنت ممکن است خسته کننده باشد. اگر وب سایتی اطلاعات را ذخیره نکرده باشد، باید نام، آدرس، جزئیات کارت اعتباری خود را وارد کنید. Nate برای کمک به کاربران اینترنتی ساخته شده است که هر بار که از فروشگاه آنلاین بازدید می کنند مجبور به انجام این کار نباشند. Nate که به عنوان یک برنامه هوش مصنوعی توصیف می شود، ادعا کرد که پس از سفارش مشتری از روش های خودکار برای پر کردن اطلاعات شخصی استفاده می کند.
اما توسعه این نرمافزار با توجه به ترکیبهای مختلف دکمههایی که الگوریتمها باید فشار دهند و اقدامات احتیاطی در وبسایتها برای متوقف کردن رباتها و اسکالپرها، مشکل بود. برای تلاش برای جذب مشتریان بیشتر به این برنامه، نیت به مردم 50 دلار پیشنهاد داد تا آنلاین در فروشگاههایی مانند Best Buy و Walmart خرج کنند. اما تازه کار تلاش کرد تا فناوری خود را به کار ببندد تا آنها را به درستی برآورده کند.
بهترین راه برای درست کردنش؟ جعلش کن در عوض، نیت به استخدام کارگران در فیلیپین روی آورد تا به صورت دستی اطلاعات خصوصی مصرف کننده را وارد کند. سفارشها گاهی اوقات چند ساعت پس از ثبت تکمیل میشوند، مطابق به اطلاعات. ادعا شده است که حدود 60 تا 100 درصد سفارشات به صورت دستی پردازش شده است. سخنگوی شرکت نوپا گفت که این گزارش "نادرست است و ادعاهایی که فناوری انحصاری ما را زیر سوال می برند کاملا بی اساس است."
دارپا می خواهد هوش مصنوعی قابل اعتمادتر باشد
بازوی تحقیقاتی نظامی ایالات متحده، دارپا، برنامه جدیدی را برای تأمین بودجه توسعه الگوریتم های هوش مصنوعی عصبی- نمادین ترکیبی راه اندازی کرد، به این امید که این فناوری به سیستم های قابل اعتمادتری منجر شود.
یادگیری عمیق مدرن اغلب به عنوان "جعبه سیاه" نامیده می شود، عملکرد درونی آن غیرشفاف است و متخصصان اغلب نمی دانند که چگونه شبکه های عصبی با یک ورودی خاص به خروجی می رسند. فقدان شفافیت به این معنی است که تفسیر نتایج دشوار است و در برخی سناریوها به کارگیری آن خطرناک است. برخی بر این باورند که استفاده از تکنیکهای استدلال نمادین سنتیتر میتواند مدلها را قابل اعتمادتر کند.
ایجاد انگیزه در تفکر و رویکردهای جدید در این فضا به این اطمینان کمک می کند که سیستم های خودمختار به طور ایمن عمل کرده و همانطور که در نظر گرفته شده است عمل می کنند. گفت: Sandeep Neema، مدیر برنامه جدید DARPA Assured Neuro Symbolic Learning and Reasoning. "این امری جدایی ناپذیر برای اعتماد خواهد بود، که کلید پذیرش موفقیت آمیز خودمختاری توسط وزارت دفاع است."
این ابتکار تحقیقاتی را در زمینه معماری های ترکیبی که ترکیبی از سیستم های نمادین و هوش مصنوعی مدرن هستند، تامین می کند. دارپا به ویژه به برنامههای مرتبط با ارتش علاقهمند است، مانند مدلی که میتواند برای مثال، دوست، متخاصم یا بیطرف بودن موجودیتها و همچنین شناسایی مناطق خطرناک یا امن در جنگ را تشخیص دهد. ®
- AI
- آی هنر
- مولد هنر ai
- ربات ai
- هوش مصنوعی
- گواهی هوش مصنوعی
- هوش مصنوعی در بانکداری
- ربات هوش مصنوعی
- ربات های هوش مصنوعی
- نرم افزار هوش مصنوعی
- بلاکچین
- کنفرانس بلاک چین ai
- coingenius
- هوش مصنوعی محاوره ای
- کنفرانس کریپتو ai
- دل-ه
- یادگیری عمیق
- گوگل ai
- فراگیری ماشین
- افلاطون
- افلاطون آی
- هوش داده افلاطون
- بازی افلاطون
- PlatoData
- بازی پلاتو
- مقیاس Ai
- نحو
- ثبت نام
- زفیرنت