На Meta подано вісім позовів, які стверджують, що соціальні мережі завдають шкоди дітям PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Мета подала вісім позовів про те, що соціальні мережі завдають шкоди дітям

Коротко Головний бізнес Facebook і Instagram, Meta, був вражений не одним, не двома, а вісьмома різними судовими процесами, які звинувачують його алгоритм соціальних мереж у завданні реальної шкоди молодим користувачам у США. 

У скаргах, поданих минулого тижня, стверджується, що платформи соціальних мереж Meta були розроблені таким чином, щоб викликати небезпечну залежність, спонукаючи дітей і підлітків переглядати контент, який підвищує ризик розладів харчової поведінки, самогубств, депресії та розладів сну. 

«Використання соціальних медіа серед молоді слід розглядати як головну причину кризи психічного здоров’я, з якою ми стикаємося в країні», сказав Енді Берчфілд, адвокат, який представляє юридичну фірму Beasley Allen, яка веде справи, у заяві.

«Ці додатки могли бути розроблені для мінімізації будь-якої потенційної шкоди, але замість цього було прийнято рішення агресивно залежати підлітків в ім’я корпоративних прибутків. Цій компанії час визнати зростаючу стурбованість щодо впливу соціальних медіа на психічне здоров’я та благополуччя цієї найвразливішої частини нашого суспільства та змінити алгоритми та бізнес-цілі, які завдали такої великої шкоди».

Позови були подані до федеральних судів Техасу, Теннессі, Колорадо, Делавера, Флориди, Джорджії, Іллінойсу та Міссурі, відповідно до Блумберга. 

Наскільки насправді безпечні автономні транспортні засоби?

Безпеку програмного забезпечення для безпілотних автомобілів, наприклад автопілота Tesla, важко оцінити, враховуючи, що даних оприлюднено мало, а показники, які використовуються для таких оцінок, вводять в оману. 

Компанії, що розробляють автономні транспортні засоби, зазвичай повідомляють про кількість миль, пройдених за допомогою технології автономного керування, перш ніж водіям доведеться взяти на себе керування, щоб запобігти помилкам або аваріям. Дані, наприклад, показують, що коли активовано режим автопілота Tesla, трапляється менше аварій. Але це не обов’язково означає, що це безпечніше, стверджують експерти. 

Автопілот, швидше за все, буде налаштовано для їзди по шосе, де умови менш складні для програмного забезпечення, ніж пересування по жвавому місту. Tesla та інші автопідприємства не діляться даними щодо проїзду певними дорогами для кращого порівняння. 

«Ми знаємо, що автомобілі, які використовують автопілот, трапляються в аварії рідше, ніж коли автопілот не використовується», — Ноа Гудолл, дослідник Ради з досліджень транспорту Вірджинії, сказав Нью-Йорк Таймс. «Але чи їздять ними однаково, на тих же дорогах, в той самий час доби, ті самі водії?».

Минулого року Національне управління безпеки дорожнього руху наказало компаніям повідомляти про серйозні аварії за участю безпілотних автомобілів протягом 24 годин після аварії. Але жодної інформації поки не оприлюднено.

Вискочку штучного інтелекту звинувачують у підступному використанні людської праці за автономною технологією

Nate, стартап вартістю понад 300 мільйонів доларів, який стверджує, що використовує штучний інтелект для автоматичного заповнення платіжної інформації покупців на веб-сайтах роздрібної торгівлі, насправді платить працівникам за введення даних вручну за 1 долар.

Купівля товарів в Інтернеті може бути виснажливою. Ви повинні ввести своє ім’я, адресу та дані кредитної картки, якщо веб-сайт не зберіг інформацію. Nate створено, щоб допомогти користувачам мережі не робити цього щоразу, коли вони відвідують онлайн-магазин. Нейт стверджував, що програма, описана як програма зі штучним інтелектом, використовує автоматизовані методи для заповнення особистих даних після того, як споживач зробив замовлення.

Але розробити програмне забезпечення було складно, враховуючи різні комбінації кнопок, які потрібно натискати алгоритмам, і запобіжні заходи, які застосовуються на веб-сайтах, щоб зупинити ботів і скальперів. Щоб спробувати залучити до програми більше споживачів, Нейт запропонував людям витратити 50 доларів в Інтернеті в таких магазинах, як Best Buy і Walmart. Але новачку було важко змусити свою технологію працювати для їх належного виконання. 

Найкращий спосіб зробити це? Прикидатися. Натомість Нейт звернувся до найму працівників на Філіппінах, щоб вони вручну вводили особисту інформацію споживача; замовлення іноді виконувалися через кілька годин після їх розміщення, відповідно до Інформації. Стверджується, що від 60 до 100 відсотків замовлень оброблялися вручну. Представник вискочки сказав, що звіт «невірний, а заяви, що ставлять під сумнів нашу запатентовану технологію, абсолютно безпідставні».

DARPA хоче, щоб штучний інтелект був більш надійним

Військове дослідницьке відділення США DARPA запустило нову програму для фінансування розробки гібридних нейросимволічних алгоритмів ШІ в надії, що ця технологія призведе до більш надійних систем.

Сучасне глибоке навчання часто називають «чорним ящиком», його внутрішня робота непрозора, і експерти часто не розуміють, як нейронні мережі отримують вихідні дані за певних вхідних даних. Відсутність прозорості означає, що результати важко інтерпретувати, що робить ризикованим розгортання в деяких сценаріях. Деякі вважають, що використання більш традиційних старомодних методів символічного міркування може зробити моделі більш надійними. 

«Мотивація нового мислення та нових підходів у цьому просторі допоможе гарантувати, що автономні системи працюватимуть безпечно та працюватимуть за призначенням», сказав Сандіп Німа, програмний менеджер нової програми DARPA Assured Neuro Symbolic Learning and Reasoning. «Це буде невід’ємною частиною довіри, яка є ключем до успішного прийняття Міністерством оборони автономії».

Ініціатива фінансуватиме дослідження гібридних архітектур, які є сумішшю символьних систем і сучасного ШІ. DARPA особливо зацікавлена ​​в додатках, які мають відношення до військових, наприклад, моделі, яка може визначити, чи були об’єкти дружніми, ворожими чи нейтральними, наприклад, а також виявлення небезпечних або безпечних зон під час бою. ®

Часова мітка:

Більше від Реєстр