Meta smækkede med otte retssager, der hævder, at sociale medier skader børn PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Meta slog til med otte retssager, der hævdede, at sociale medier skader børn

Kort om Facebook og Instagrams forælderbiz, Meta, blev ramt af ikke én, ikke to, men otte forskellige retssager, der beskyldte deres sociale mediealgoritme for at forårsage reel skade på unge brugere i hele USA. 

De klager, der er indgivet i løbet af den sidste uge, hævder, at Metas sociale medieplatforme er designet til at være farligt vanedannende, der driver børn og teenagere til at se indhold, der øger risikoen for spiseforstyrrelser, selvmord, depression og søvnforstyrrelser. 

"Anvendelse af sociale medier blandt unge mennesker bør ses som en væsentlig bidragyder til den mentale sundhedskrise, vi står over for i landet," sagde Andy Birchfield, en advokat, der repræsenterer Beasley Allen Law Firm, leder sagerne, i en erklæring.

"Disse applikationer kunne have været designet til at minimere enhver potentiel skade, men i stedet blev der truffet en beslutning om aggressivt at afhængige unge i virksomhedens overskuds navn. Det er på tide, at denne virksomhed anerkender de voksende bekymringer omkring sociale mediers indvirkning på mental sundhed og velvære i denne mest sårbare del af vores samfund og ændrer de algoritmer og forretningsmål, der har forårsaget så meget skade."

Sagerne er blevet anlagt ved føderale domstole i Texas, Tennessee, Colorado, Delaware, Florida, Georgia, Illinois og Missouri, ifølge til Bloomberg. 

Hvor sikre er autonome køretøjer egentlig?

Sikkerheden af ​​selvkørende bilsoftware som Teslas Autopilot er svær at vurdere, i betragtning af at der er få data offentliggjort, og de målinger, der bruges til sådanne vurderinger, er vildledende. 

Virksomheder, der udvikler autonome køretøjer, rapporterer typisk antallet af kørte kilometer af selvkørende teknologi, før menneskelige chauffører skal tage over for at forhindre fejl eller styrt. Dataene viser for eksempel, at der sker færre ulykker, når Teslas Autopilot-tilstand er aktiveret. Men det betyder ikke nødvendigvis, at det er mere sikkert, hævder eksperter. 

Autopilot is more likely to be tuned for driving on the highway, where conditions are less complex for software to deal with than getting around a busy city. Tesla and other auto businesses don’t share data for driving down specific roads for better comparison. 

"Vi ved, at biler, der bruger autopilot, styrter sjældnere ned, end når autopilot ikke bruges," Noah Goodall, en forsker ved Virginia Transportation Research Council, fortalt New York Times. "Men bliver de kørt på samme måde, på de samme veje, på samme tidspunkt af dagen, af de samme chauffører?"

National Highway Traffic Safety Administration beordrede virksomheder til at rapportere alvorlige ulykker med selvkørende biler inden for 24 timer efter ulykken fandt sted sidste år. Men der er endnu ikke offentliggjort nogen oplysninger.

AI-opkomling anklaget for snigende at bruge menneskelig arbejdskraft bag autonom teknologi

Nate, en startup til en værdi af over $300 millioner, som hævder at bruge AI til automatisk at udfylde shoppers betalingsoplysninger på detailwebsteder, betaler faktisk arbejdere for manuelt at indtaste dataene for $1.

At købe ting på internettet kan være kedeligt. Du skal indtaste dit navn, adresse, kreditkortoplysninger, hvis en hjemmeside ikke har gemt oplysningerne. Nate blev bygget til at hjælpe netbrugere med at undgå at skulle gøre dette, hver gang de besøgte en online butik. Beskrevet som en AI-app hævdede Nate, at den brugte automatiserede metoder til at udfylde personlige data, efter at en forbruger havde afgivet en ordre.

Men softwaren var vanskelig at udvikle i betragtning af de forskellige kombinationer af knapper, som algoritmerne skal trykke på, og de forholdsregler, der er på plads på websteder for at stoppe bots og scalpere. For at forsøge at tiltrække flere forbrugere til appen tilbød Nate folk 50 dollars til at bruge online i butikker som Best Buy og Walmart. Men opkomlingen kæmpede for at få sin teknologi til at virke til at opfylde dem korrekt. 

Den bedste måde at lave det på? Lad som om. I stedet henvendte Nate sig til at ansætte arbejdere i Filippinerne til manuelt at indtaste forbrugerens private oplysninger; ordrer blev nogle gange gennemført timer efter de blev afgivet, ifølge til Informationen. Omkring 60 til 100 procent af ordrerne blev behandlet manuelt, blev det påstået. En talsmand for opkomlingen sagde, at rapporten var "forkert, og påstandene, der sætter spørgsmålstegn ved vores proprietære teknologi, er fuldstændig grundløse."

DARPA ønsker, at AI skal være mere troværdig

Den amerikanske militære forskningsarm, DARPA, lancerede et nyt program for at finansiere udvikling til hybride neuro-symbolske AI-algoritmer i håb om, at teknologien vil føre til mere troværdige systemer.

Moderne dyb læring omtales ofte som en "sort boks", dens indre funktioner er uigennemsigtige, og eksperter forstår ofte ikke, hvordan neurale netværk når frem til et output givet et specifikt input. Manglen på gennemsigtighed betyder, at resultaterne er svære at fortolke, hvilket gør det risikabelt at implementere i nogle scenarier. Nogle mener, at inkorporering af mere traditionelle gammeldags symbolske ræsonnementteknikker kan gøre modeller mere troværdige. 

"Motivering af nytænkning og tilgange i dette rum vil hjælpe med at sikre, at autonome systemer fungerer sikkert og fungerer efter hensigten." sagde Sandeep Neema, programleder for DARPAs nye Assured Neuro Symbolic Learning and Reasoning-program. "Dette vil være en integreret del af tilliden, hvilket er nøglen til forsvarsministeriets succesfulde vedtagelse af autonomi."

Initiativet vil finansiere forskning i hybridarkitekturer, der er en blanding af symbolske systemer og moderne kunstig intelligens. DARPA er især interesseret i applikationer, der er relevante for militæret, såsom en model, der kunne detektere, om enheder var venlige, modstridende eller neutrale, for eksempel, samt opdage farlige eller sikre områder i kamp. ®

Tidsstempel:

Mere fra Registret