Meta slengte med åtte søksmål som hevder sosiale medier skader barna PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Meta slengte inn åtte søksmål som hevdet sosiale medier skader barn

i korte trekk Facebook og Instagrams overordnede biz, Meta, ble rammet av ikke én, ikke to, men åtte forskjellige søksmål som anklaget algoritmen for sosiale medier for å forårsake reell skade på unge brukere over hele USA. 

Klagene som ble sendt inn den siste uken hevder at Metas sosiale medieplattformer er designet for å være farlig avhengighetsskapende, og driver barn og tenåringer til å se innhold som øker risikoen for spiseforstyrrelser, selvmord, depresjon og søvnforstyrrelser. 

"Bruking av sosiale medier blant unge mennesker bør sees på som en viktig bidragsyter til den psykiske helsekrisen vi står overfor i landet," sa Andy Birchfield, en advokat som representerer Beasley Allen Law Firm, leder sakene, i en uttalelse.

"Disse applikasjonene kunne vært designet for å minimere potensiell skade, men i stedet ble det tatt en beslutning om å aggressivt avhengige ungdommer i bedriftens fortjenestes navn. Det er på tide at dette selskapet anerkjenner de økende bekymringene rundt virkningen av sosiale medier på den mentale helsen og velværet til denne mest sårbare delen av samfunnet vårt og endrer algoritmene og forretningsmålene som har forårsaket så mye skade.»

Søksmålene har blitt anlagt ved føderale domstoler i Texas, Tennessee, Colorado, Delaware, Florida, Georgia, Illinois og Missouri, ifølge til Bloomberg. 

Hvor trygge er egentlig autonome kjøretøy?

Sikkerheten til selvkjørende bilprogramvare som Teslas autopilot er vanskelig å vurdere, med tanke på at det er lite data som er offentliggjort og beregningene som brukes for slike vurderinger er misvisende. 

Selskaper som utvikler autonome kjøretøyer rapporterer vanligvis antall miles kjørt av selvkjørende teknologi før menneskelige sjåfører må ta over for å forhindre feil eller krasj. Dataene viser for eksempel at færre ulykker skjer når Teslas autopilotmodus er aktivert. Men det betyr ikke nødvendigvis at det er tryggere, hevder eksperter. 

Det er mer sannsynlig at autopiloten er innstilt for kjøring på motorveien, der forholdene er mindre komplekse for programvare å håndtere enn å komme seg rundt i en travel by. Tesla og andre bilbedrifter deler ikke data for å kjøre ned spesifikke veier for bedre sammenligning. 

"Vi vet at biler som bruker autopilot krasjer sjeldnere enn når autopilot ikke brukes," Noah Goodall, en forsker ved Virginia Transportation Research Council, fortalte New York Times. "Men blir de kjørt på samme måte, på samme veier, til samme tid på dagen, av de samme sjåførene?"

National Highway Traffic Safety Administration beordret selskaper til å rapportere alvorlige ulykker med selvkjørende biler innen 24 timer etter ulykken skjedde, i fjor. Men ingen informasjon er offentliggjort ennå.

AI-oppkomling anklaget for å ha brukt menneskelig arbeidskraft bak autonom teknologi

Nate, en oppstart verdsatt til over 300 millioner dollar som hevder å bruke kunstig intelligens til å automatisk fylle ut kjøpers betalingsinformasjon på detaljhandelsnettsteder, betaler faktisk arbeidere for å legge inn dataene manuelt for 1 dollar.

Å kjøpe ting på internett kan være kjedelig. Du må skrive inn navn, adresse, kredittkortinformasjon hvis et nettsted ikke har lagret informasjonen. Nate ble bygget for å hjelpe nettbrukere med å unngå å måtte gjøre dette hver gang de besøkte en nettbutikk. Beskrevet som en AI-app, hevdet Nate at den brukte automatiserte metoder for å fylle ut personopplysninger etter at en forbruker la inn en bestilling.

Men programvaren var vanskelig å utvikle, tatt i betraktning de ulike kombinasjonene av knapper algoritmene må trykke på og forholdsreglene på plass på nettsteder for å stoppe roboter og scalpere. For å prøve å tiltrekke flere forbrukere til appen, tilbød Nate folk $50 å bruke på nett i butikker som Best Buy og Walmart. Men oppkomlingen slet med å få teknologien til å fungere for å oppfylle dem på riktig måte. 

Den beste måten å lage det på? Fake det. I stedet henvendte Nate seg til å ansette arbeidere på Filippinene for å manuelt legge inn forbrukerens private informasjon; bestillinger ble noen ganger fullført timer etter at de ble plassert, ifølge til Informasjonen. Omtrent 60 til 100 prosent av bestillingene ble behandlet manuelt, ble det påstått. En talsperson for oppkomlingen sa at rapporten var "feil og påstandene som stiller spørsmål ved vår proprietære teknologi er fullstendig grunnløse."

DARPA vil at AI skal være mer pålitelig

USAs militære forskningsarm, DARPA, lanserte et nytt program for å finansiere utvikling til hybride nevro-symbolske AI-algoritmer i håp om at teknologien vil føre til mer pålitelige systemer.

Moderne dyp læring blir ofte referert til som en "svart boks", dens indre funksjoner er ugjennomsiktige og eksperter forstår ofte ikke hvordan nevrale nettverk kommer til en utgang gitt en spesifikk inngang. Mangelen på åpenhet betyr at resultatene er vanskelige å tolke, noe som gjør det risikabelt å distribuere i enkelte scenarier. Noen mener å innlemme mer tradisjonelle gammeldagse symbolske resonneringsteknikker kan gjøre modellene mer pålitelige. 

"Å motivere ny tenkning og tilnærminger i dette rommet vil bidra til å sikre at autonome systemer vil fungere trygt og fungere som tiltenkt," sa Sandeep Neema, programleder for DARPAs nye Assured Neuro Symbolic Learning and Reasoning-program. "Dette vil være integrert i tillit, som er nøkkelen til forsvarsdepartementets vellykkede vedtak om autonomi."

Initiativet skal finansiere forskning på hybridarkitekturer som er en blanding av symbolske systemer og moderne kunstig intelligens. DARPA er spesielt interessert i applikasjoner som er relevante for militæret, for eksempel en modell som kan oppdage om enheter var vennlige, motstridende eller nøytrale, for eksempel, samt oppdage farlige eller trygge områder i kamp. ®

Tidstempel:

Mer fra Registeret