YouTube elsker at anbefale konservative videoer uanset din overbevisning PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

YouTube elsker at anbefale konservative videoer uanset din overbevisning

YouTubes anbefalingsalgoritme fanger ikke kun blidt seerne i milde ekkokamre, det er mere sandsynligt, at den foreslår konservativt orienterede videoer uanset din politiske tilhørsforhold.

Det er ifølge a studere ud af New York University's Center for Social Media and Politics (CSMP), der blev fremhævet i denne måned af Brookings.

Sociale netværk lever og dør af deres anbefalingsalgoritmer: de er designet til at holde besøgende på webstederne og apps ved at fodre dem med indhold, der holder dem tilsluttet, og hvis det øger engagementet – dele links med andre, kommentere, abonnere, stemme op osv. – så meget bedre. Kontroversielt eller åndssvagt materiale er perfekt til dette, da det sandsynligvis vil udløse flere delinger og kommentarer og dermed holde flere mennesker afhængige.

Disse feeds er således personliggjort til hver netbruger baseret på deres interesser; det er vigtigt for at tegne og låse dem inde. Ekkokamre dannes, hvor folk poster og deler ting, de har en fælles interesse i, og ignorerer alt, der strider mod disse principper og holdninger. Dette fører til en positiv feedback-loop af engagement i gruppen, hvilket styrker overbevisninger og øger tid – og annoncevisninger – i appen eller webstedet.

Her er nogle spørgsmål. Til hvilket niveau brænder disse anbefalingsalgoritmer disse ekkokamre? Skubber algoritmerne brugerne ned ad stadig mere smalle ideologiske veje, og radikaliserer netbrugere, efterhånden som de går dybere ind i et online kaninhul? Kan software gøre folk til ekstremisme? Er der en systemisk bias i anbefalingerne?

For at tackle dette emne undersøgte et team af forskere ved CSMP virkningerne af YouTube-anbefalinger ved at få 1,063 voksne amerikanere, rekrutteret via Facebook-annoncer, til at installere en browserudvidelse, der holdt øje med deres oplevelse af at gennemse det Google-ejede websted.

Det skubber brugere ind i stadigt snævrere ideologiske indholdsområder i, hvad vi kan kalde bevis på et (meget) mildt ideologisk ekkokammer

Deltagerne blev bedt om at vælge én startende YouTube-video ud af 25, bestående af en blanding af politiske og ikke-politiske ting, og derefter følge en fast sti gennem de videoer, YouTube anbefalede, at de skulle se næste gang.

Netbrugerne blev bedt om altid at klikke på enten den første, anden, tredje, fjerde eller femte anbefaling hver gang; anbefalingspladsen blev valgt tilfældigt pr. person fra starten. Denne gennemgang gennem YouTubes foreslåede videoer blev gentaget 20 gange af hver deltager over en periode fra oktober til december 2020.

Udvidelsen loggede, hvilke videoer YouTube anbefalede på hvert trin, og dermed de videoer, der blev set. Holdet scorede det ideologiske syn på hver video, baseret på om det var mere konservativt eller liberalt orienteret, for at måle effekten af ​​ekkokamre og eventuel latent bias i systemet og for at se, om seerne blev anbefalet mere og mere ekstremt indhold.

Hvordan den ideologiske score blev bestemt, er lidt afgørende for dette, så vi vil et øjeblik stole på, at det var robust. Deltagerne blev også undersøgt om deres demografi.

"Vi fandt ud af, at YouTubes anbefalingsalgoritme ikke fører det store flertal af brugere ned i ekstremistiske kaninhuller, selvom den skubber brugere ind i stadigt snævrere ideologiske indholdsområder i, hvad vi kan kalde beviser for et (meget) mildt ideologisk ekkokammer." akademikere videregives i en rapport for Brookings Institution.

"Vi finder også, at YouTube-anbefalingsalgoritmen i gennemsnit trækker brugerne lidt til højre for det politiske spektrum, hvilket vi mener er en ny konstatering."

Algoritmen trækker brugerne lidt til højre for det politiske spektrum

Abstraktet af deres papir gør det klart, at dette bump til højre sker "uanset ideologien" for YouTube-seere.

Undersøgelsen fandt ud af, at brugere blev skubbet til at se mere højre- eller venstreorienterede medier, afhængigt af deres udgangspunkt. YouTube-anbefalinger ser således ud til at afvige lidt til højre for konservative og venstre for progressive. Denne ændring i anbefalingernes ideologiske styrke startede småt og steg, jo længere seeren fulgte algoritmens anbefalinger. Med andre ord, hvis du (for eksempel) så, hvad der blev anset for at være moderat efterladt materiale, vil dine anbefalinger med tiden glide mere til venstre, men kun meget lidt og gradvist ifølge denne undersøgelse.

Der findes således milde ideologiske ekkokamre på YouTube, hævdede forskerne. Det ville give mening for YouTube, da det sikrer, at seerne forbliver engagerede og forbliver klistret til webstedet. Det er bemærkelsesværdigt, at der synes at være lidt eller ingen beviser for, at seerne er sat på et hurtigt spor til mere ideologisk ekstremt indhold.

Det kan være i modstrid med din egen erfaring, da du nogle gange kan se, hvordan folk bliver trukket ned i kaninhuller. Den ene starter med et klip af en harmløs talkshow-vært, dernæst bliver de styret til at se lidt af en moderat komiker, så finder de på at se en samtale fra en alternativ podcaster, så får de livsråd fra en tvivlsom akademiker, så er det udkantsprincipper af en anden influencer, og inden længe ser de nogen, der går uden om YouTubes regler om hadefulde ytringer. Eller måske er undersøgelsen rigtig, og det er ikke den anbefalede motor, der driver folk ned ad stejle skråninger.

Hvad der måske er mere interessant, er, at YouTube generelt ser ud til at hælde mod at anbefale moderat konservativt indhold til brugere uanset deres politiske orientering, i det mindste ifølge NYU-centret.

Holdet er ikke helt sikker på hvorfor. "Selvom vores data giver os mulighed for at isolere den rolle, som anbefalingsalgoritmen spiller, er vi ikke i stand til at kigge ind i den sorte boks. Uden denne klarhed kan vi ikke afgøre, om algoritmen virker mere kraftfuldt for konservative, fordi de er mere krævende for ideologisk kongruent indhold end liberale, eller af en anden grund,” skrev de i avisen.

Det kan være, at højreorienterede er mere tilbøjelige til konsekvent at se højreorienteret indhold, og venstreorienterede er mere tilbøjelige til at se mere forskelligartet indhold - ting, de er enige i, og ting, de raser-deler - eller at der simpelthen er mere konservative videoer end liberale på YouTube. YouTube-anbefalinger kan trækkes til højre for at afspejle videobiblioteket, tilfredsstille publikumsefterspørgsel og fremme det altid ønskede engagement.

En lignende effekt er også blevet observeret på Twitter. Dens anbefalingsalgoritme plejer at booste indlæg fra højrefløjspolitikere og nyhedsudgivelser mere end venstreorienterede. Statsvidenskabsmænd fra samme hold på NYU tidligere kommenteret at det kan skyldes, at konservativt indhold er mere tilbøjeligt til at generere mere forargelse og derfor føre til mere engagement.

Vi har i øvrigt også bemærket før, at det er en konservativ diskussion, at højreorienterede synspunkter rutinemæssigt uretfærdigt censureres eller gemmes væk på internettet af Big Tech. Det kan skyldes, at konservativ politisk kommunikation bliver set og markeret som misinformation oftere end oppositionens beskeder.

Ingen på YouTube eller Google var i stand til at reagere på CSMP-undersøgelsens resultater. ®

Tidsstempel:

Mere fra Registret