Meta obalona ośmioma pozwami twierdzącymi, że media społecznościowe szkodzą dzieciom PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Meta obalona ośmioma pozwami twierdzącymi, że media społecznościowe szkodzą dzieciom

W skrócie Firma Meta, będąca rodzicem Facebooka i Instagrama, została uderzona nie jednym, nie dwoma, ale ośmioma różnymi procesami sądowymi, oskarżając jego algorytm mediów społecznościowych o wyrządzenie prawdziwej szkody młodym użytkownikom w całych Stanach Zjednoczonych. 

Skargi złożone w ciągu ostatniego tygodnia twierdzą, że platformy mediów społecznościowych Meta zostały zaprojektowane tak, aby były niebezpiecznie uzależniające, zmuszając dzieci i młodzież do oglądania treści, które zwiększają ryzyko zaburzeń odżywiania, samobójstwa, depresji i zaburzeń snu. 

„Wykorzystywanie mediów społecznościowych wśród młodych ludzi powinno być postrzegane jako główny czynnik przyczyniający się do kryzysu zdrowia psychicznego, z którym mamy do czynienia w tym kraju” powiedziany Andy Birchfield, adwokat reprezentujący kancelarię Beasley Allen, prowadzącą sprawy, w oświadczeniu.

„Te aplikacje mogły zostać zaprojektowane tak, aby zminimalizować potencjalne szkody, ale zamiast tego podjęto decyzję o agresywnym uzależnieniu nastolatków w imię zysków korporacyjnych. Nadszedł czas, aby ta firma uznała rosnące obawy dotyczące wpływu mediów społecznościowych na zdrowie psychiczne i samopoczucie tej najbardziej wrażliwej części naszego społeczeństwa i zmieniła algorytmy i cele biznesowe, które spowodowały tak wiele szkód”.

Pozwy zostały złożone w sądach federalnych w Teksasie, Tennessee, Kolorado, Delaware, Florydzie, Georgii, Illinois i Missouri, według do Bloomberg. 

Jak naprawdę bezpieczne są pojazdy autonomiczne?

Bezpieczeństwo oprogramowania do autonomicznych samochodów, takiego jak Autopilot Tesli, jest trudne do oszacowania, biorąc pod uwagę niewiele danych upublicznionych, a wskaźniki wykorzystywane do takich ocen są mylące. 

Firmy opracowujące pojazdy autonomiczne zazwyczaj zgłaszają liczbę mil przejechanych przez technologię autonomicznej jazdy, zanim kierowcy będą musieli przejąć kontrolę, aby zapobiec błędom lub wypadkom. Dane pokazują na przykład mniej wypadków, gdy włączony jest tryb Autopilota Tesli. Eksperci twierdzą jednak, że niekoniecznie oznacza to, że jest bezpieczniej. 

Autopilot jest bardziej przystosowany do jazdy po autostradzie, gdzie warunki są mniej skomplikowane dla oprogramowania niż poruszanie się po ruchliwym mieście. Tesla i inne firmy motoryzacyjne nie udostępniają danych dotyczących jazdy po określonych drogach w celu lepszego porównania. 

„Wiemy, że samochody korzystające z autopilota spadają rzadziej niż wtedy, gdy autopilot nie jest używany”, Noah Goodall, badacz z Virginia Transportation Research Council, powiedział New York Times. „Ale czy jeżdżą w ten sam sposób, po tych samych drogach, o tej samej porze dnia, przez tych samych kierowców?”

National Highway Traffic Safety Administration nakazał firmom zgłaszanie poważnych wypadków z udziałem samochodów autonomicznych w ciągu 24 godzin od wypadku w zeszłym roku. Ale żadna informacja nie została jeszcze upubliczniona.

Początkujący sztuczny inteligencja oskarżony o podstępne wykorzystywanie ludzkiej pracy za autonomiczną technologią

Nate, startup wyceniany na ponad 300 milionów dolarów, który twierdzi, że wykorzystuje sztuczną inteligencję do automatycznego wypełniania informacji o płatnościach kupujących na stronach sklepów detalicznych, w rzeczywistości płaci pracownikom za ręczne wprowadzanie danych za 1 dolara.

Kupowanie rzeczy w Internecie może być uciążliwe. Musisz wpisać swoje imię i nazwisko, adres, dane karty kredytowej, jeśli witryna nie zapisała tych informacji. Nate został stworzony, aby pomóc internautom uniknąć konieczności robienia tego za każdym razem, gdy odwiedzają sklep internetowy. Opisywany jako aplikacja AI, Nate twierdził, że używa zautomatyzowanych metod do wypełniania danych osobowych po złożeniu zamówienia przez konsumenta.

Jednak oprogramowanie było trudne do opracowania, biorąc pod uwagę różne kombinacje przycisków, które algorytmy muszą nacisnąć, oraz środki ostrożności stosowane na stronach internetowych, aby zatrzymać boty i skalpery. Aby przyciągnąć więcej konsumentów do aplikacji, Nate zaoferował ludziom 50 USD do wydania online w sklepach takich jak Best Buy i Walmart. Ale nowicjusz walczył o to, aby jego technologia działała prawidłowo. 

Jak najlepiej to zrobić? Sfałszuj to. Zamiast tego Nate zwrócił się do zatrudniania pracowników na Filipinach do ręcznego wprowadzania prywatnych informacji konsumenta; zamówienia były czasami realizowane kilka godzin po ich złożeniu, według do Informacji. Twierdzono, że około 60 do 100 procent zamówień zostało przetworzonych ręcznie. Rzecznik nowego początkującego powiedział, że raport jest „błędny, a twierdzenia kwestionujące naszą zastrzeżoną technologię są całkowicie bezpodstawne”.

DARPA chce, aby sztuczna inteligencja była bardziej godna zaufania

Amerykańskie wojskowe ramię badawcze, DARPA, uruchomiło nowy program, aby sfinansować rozwój hybrydowych neurosymbolicznych algorytmów sztucznej inteligencji w nadziei, że technologia ta doprowadzi do powstania bardziej godnych zaufania systemów.

Współczesne uczenie głębokie jest często określane jako „czarna skrzynka”, jego wewnętrzne mechanizmy są nieprzejrzyste, a eksperci często nie rozumieją, w jaki sposób sieci neuronowe docierają do danych wyjściowych po określonym wejściu. Brak przejrzystości oznacza, że ​​wyniki są trudne do interpretacji, co sprawia, że ​​wdrożenie w niektórych scenariuszach jest ryzykowne. Niektórzy uważają, że włączenie bardziej tradycyjnych, staromodnych technik rozumowania symbolicznego może sprawić, że modele będą bardziej godne zaufania. 

„Motywowanie nowego myślenia i podejścia w tej przestrzeni pomoże zapewnić, że autonomiczne systemy będą działać bezpiecznie i działać zgodnie z przeznaczeniem” powiedziany Sandeep Neema, kierownik programu nowego programu DARPA Assured Neuro Symbolic Learning and Reasoning. „Będzie to integralną częścią zaufania, które jest kluczem do pomyślnego przyjęcia autonomii przez Departament Obrony”.

Inicjatywa sfinansuje badania nad architekturami hybrydowymi, które są mieszanką systemów symbolicznych i nowoczesnej sztucznej inteligencji. DARPA jest szczególnie zainteresowana aplikacjami, które są istotne dla wojska, takimi jak model, który może na przykład wykryć, czy jednostki były przyjazne, wrogie lub neutralne, a także wykrywać niebezpieczne lub bezpieczne obszary w walce. ®

Znak czasu:

Więcej z Rejestr