На Meta было подано восемь судебных исков, утверждающих, что социальные сети вредят детям. PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

На Meta подали восемь судебных исков о том, что социальные сети вредят детям

Вкратце Материнский бизнес Facebook и Instagram, Meta, столкнулся с не одним, не двумя, а восемью различными судебными исками, обвиняющими его алгоритм социальных сетей в причинении реального вреда молодым пользователям в США. 

В жалобах, поданных на прошлой неделе, утверждается, что платформы социальных сетей Meta были разработаны так, чтобы вызывать опасное привыкание, заставляя детей и подростков просматривать контент, который увеличивает риск расстройств пищевого поведения, самоубийств, депрессии и нарушений сна. 

«Использование социальных сетей среди молодежи следует рассматривать как основной фактор кризиса психического здоровья, с которым мы сталкиваемся в стране», — сказал Энди Берчфилд, поверенный, представляющий юридическую фирму Beasley Allen, ведущую дела, в своем заявлении.

«Эти приложения могли быть разработаны, чтобы свести к минимуму любой потенциальный вред, но вместо этого было принято решение агрессивно навязывать подросткам зависимость во имя корпоративной прибыли. Этой компании пора признать растущую озабоченность по поводу влияния социальных сетей на психическое здоровье и благополучие этой наиболее уязвимой части нашего общества и изменить алгоритмы и бизнес-цели, которые нанесли такой большой ущерб».

Иски поданы в федеральные суды Техаса, Теннесси, Колорадо, Делавэра, Флориды, Джорджии, Иллинойса и Миссури. согласно в Блумберг. 

Насколько на самом деле безопасны беспилотные автомобили?

Безопасность программного обеспечения для беспилотных автомобилей, такого как Tesla Autopilot, трудно оценить, учитывая, что обнародовано мало данных, а показатели, используемые для таких оценок, вводят в заблуждение. 

Компании, разрабатывающие автономные транспортные средства, обычно сообщают о количестве миль, пройденных с помощью технологии автономного вождения, прежде чем люди-водители должны будут взять на себя управление, чтобы предотвратить ошибки или аварии. Данные, например, показывают, что при активации режима автопилота Tesla происходит меньше аварий. Но это не обязательно означает, что это безопаснее, утверждают эксперты. 

Автопилот, скорее всего, будет настроен для движения по шоссе, где условия менее сложны для программного обеспечения, чем для передвижения по оживленному городу. Tesla и другие автомобильные компании не делятся данными о движении по конкретным дорогам для лучшего сравнения. 

«Мы знаем, что автомобили, использующие автопилот, разбиваются реже, чем когда автопилот не используется», — говорит Ноа Гудолл, исследователь из Вирджинского исследовательского совета по транспорту. заявил Нью-Йорк Таймс. «Но водят ли их одинаково, по одним и тем же дорогам, в одно и то же время суток, одни и те же водители?»

В прошлом году Национальная администрация безопасности дорожного движения обязала компании сообщать о серьезных авариях с участием беспилотных автомобилей в течение 24 часов после аварии. Но никакой информации пока не было обнародовано.

Выскочку ИИ обвиняют в скрытом использовании человеческого труда для создания автономных технологий

Nate, стартап стоимостью более 300 миллионов долларов, который утверждает, что использует ИИ для автоматического заполнения платежной информации покупателями на розничных веб-сайтах, на самом деле платит работникам за ввод данных вручную за 1 доллар.

Покупка вещей в Интернете может быть утомительной. Вы должны ввести свое имя, адрес, данные кредитной карты, если веб-сайт не сохранил информацию. Nate был создан, чтобы помочь пользователям сети избежать необходимости делать это каждый раз, когда они посещают интернет-магазин. Описанное как приложение с искусственным интеллектом, Нейт утверждал, что оно использует автоматизированные методы для заполнения личных данных после того, как потребитель разместил заказ.

Но разработать программное обеспечение было сложно, учитывая различные комбинации кнопок, которые должны нажимать алгоритмы, и меры предосторожности, принятые на веб-сайтах, чтобы остановить ботов и спекулянтов. Чтобы попытаться привлечь больше потребителей к приложению, Нейт предложил людям потратить 50 долларов в Интернете в таких магазинах, как Best Buy и Walmart. Но выскочка изо всех сил пыталась заставить свою технологию работать, чтобы выполнять их должным образом. 

Лучший способ сделать это? Притворяться. Вместо этого Нейт обратился к найму работников на Филиппинах для ручного ввода личной информации потребителя; заказы иногда выполнялись через несколько часов после их размещения, согласно к информации. Утверждается, что от 60 до 100 процентов заказов обрабатывались вручную. Представитель выскочки сказал, что отчет был «неверным, а утверждения, ставящие под сомнение нашу запатентованную технологию, совершенно беспочвенны».

DARPA хочет, чтобы искусственный интеллект вызывал больше доверия

Американское военное исследовательское подразделение DARPA запустило новую программу по финансированию разработки гибридных нейросимволических алгоритмов искусственного интеллекта в надежде, что эта технология приведет к созданию более надежных систем.

Современное глубокое обучение часто называют «черным ящиком», его внутренняя работа непрозрачна, и эксперты часто не понимают, как нейронные сети получают результат при определенных входных данных. Отсутствие прозрачности означает, что результаты трудно интерпретировать, что делает их развертывание рискованным в некоторых сценариях. Некоторые считают, что включение более традиционных старомодных методов символического мышления может сделать модели более надежными. 

«Мотивация нового мышления и подходов в этой области поможет гарантировать, что автономные системы будут работать безопасно и работать должным образом», — сказал Сандип Нима, руководитель новой программы гарантированного нейросимволического обучения и рассуждений DARPA. «Это будет неотъемлемой частью доверия, которое является ключом к успешному принятию Министерством обороны автономии».

Инициатива будет финансировать исследования гибридных архитектур, представляющих собой смесь символьных систем и современного ИИ. DARPA особенно заинтересована в приложениях, которые имеют отношение к военным, например, в модели, которая могла бы определять, являются ли сущности дружественными, враждебными или нейтральными, а также в обнаружении опасных или безопасных зон в бою. ®

Отметка времени:

Больше от Регистр