YouTube elsker å anbefale konservative videoer uavhengig av din tro PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

YouTube elsker å anbefale konservative videoer uavhengig av din tro

YouTubes anbefalingsalgoritme fanger ikke bare seerne skånsomt i milde ekkokamre, det er mer sannsynlig at den foreslår konservativt lenende videoer uavhengig av din politiske innstilling.

Det er ifølge a studere fra New York Universitys Center for Social Media and Politics (CSMP) som ble fremhevet denne måneden av Brookings.

Sosiale nettverk lever og dør av anbefalingsalgoritmene deres: de er designet for å holde besøkende på nettstedene og appene ved å mate dem innhold som holder dem tilkoblet, og hvis det øker engasjementet – dele lenker med andre, kommentere, abonnere, stemme opp, osv. - desto bedre. Kontroversielt eller oppsiktsvekkende materiale er perfekt for dette, siden det sannsynligvis vil utløse flere delinger og kommentarer, og dermed holde flere mennesker avhengige.

Disse feedene er dermed tilpasset hver nettbruker basert på deres interesser; det er avgjørende for å tegne og låse dem inne. Ekkokamre dannes der folk legger ut og deler ting de har en felles interesse i, og ignorerer alt som strider mot disse prinsippene og holdningene. Dette fører til en positiv tilbakemeldingssløyfe av engasjement i gruppen, som styrker troen og øker tiden – og annonsevisningene – i appen eller nettstedet.

Her er noen spørsmål. Til hvilket nivå gir disse anbefalingsalgoritmene energi til disse ekkokamrene? Skyver algoritmene brukere ned stadig smalere ideologiske veier, og radikaliserer nettbrukere etter hvert som de går dypere inn i et online kaninhull? Kan programvare gjøre folk til ekstremisme? Er det en systemisk skjevhet i anbefalingene?

For å takle dette emnet studerte et team av forskere ved CSMP effekten av YouTube-anbefalinger ved å få 1,063 voksne amerikanere, rekruttert via Facebook-annonser, til å installere en nettleserutvidelse som fulgte med på deres opplevelse av å surfe på det Google-eide nettstedet.

Det presser brukere inn i stadig smalere ideologiske innholdsområder i det vi kan kalle bevis på et (veldig) mildt ideologisk ekkokammer

Deltakerne ble bedt om å velge én startende YouTube-video av 25, laget av en blanding av politiske og ikke-politiske ting, og deretter følge en fast vei gjennom videoene YouTube anbefalte de neste.

Nettbrukerne ble bedt om å alltid klikke på enten den første, andre, tredje, fjerde eller femte anbefalingen hver gang; anbefalingsplassen ble valgt tilfeldig per person fra starten. Denne gjennomgangen gjennom YouTubes foreslåtte videoer ble gjentatt 20 ganger av hver deltaker, over en periode fra oktober til desember 2020.

Utvidelsen logget hvilke videoer YouTube anbefalte på hvert trinn, og dermed videoene som ble sett. Teamet scoret det ideologiske synet på hver video, basert på om den var mer konservativ eller liberal, for å måle effekten av ekkokamre og eventuell latent skjevhet i systemet, og for å se om seerne ble anbefalt stadig mer ekstremt innhold.

Hvordan den ideologiske poengsummen ble bestemt er ganske avgjørende for dette, så vi kan stole på et øyeblikk at den var robust. Deltakerne ble også undersøkt om deres demografi.

«Vi fant ut at YouTubes anbefalingsalgoritme ikke fører det store flertallet av brukere ned i ekstremistiske kaninhull, selv om den presser brukere inn i stadig smalere ideologiske innholdsområder i det vi kan kalle bevis på et (veldig) mildt ideologisk ekkokammer,» akademikere avslørt i en rapport for Brookings Institution.

"Vi finner også at YouTube-anbefalingsalgoritmen i gjennomsnitt trekker brukerne litt til høyre for det politiske spekteret, noe vi mener er et nytt funn."

Algoritmen trekker brukerne litt til høyre for det politiske spekteret

Sammendraget av papiret deres gjør det klart at denne bumpen til høyre skjer «uavhengig av ideologien» til YouTube-seere.

Studien fant at brukere ble presset til å se mer høyre- eller venstreorienterte medier, avhengig av deres utgangspunkt. YouTube-anbefalingene ser derfor ut til å avvike litt til høyre for konservative og venstre for progressive. Denne endringen i ideologisk styrke til anbefalingene startet i det små og økte jo lenger seeren fulgte algoritmens anbefalinger. Med andre ord, hvis du (for eksempel) så på det som ble ansett for å være moderat etterlatt materiale, vil anbefalingene dine over tid drive mer til venstre, men bare veldig lite og gradvis, ifølge denne studien.

Milde ideologiske ekkokamre eksisterer altså på YouTube, hevdet forskerne. Det ville være fornuftig for YouTube, siden det sikrer at seerne forblir engasjerte og forblir klistret til nettstedet. Spesielt ser det ut til å være lite eller ingen bevis for at seerne blir satt på et raskt spor til mer ideologisk ekstremt innhold.

Det kan være i strid med din egen erfaring, siden du noen ganger kan se hvordan folk blir dratt ned i kaninhull. Man starter med et klipp av en harmløs talkshowvert, deretter blir de styrt til å se litt av en moderat komiker, så ser de på en samtale fra en alternativ podcaster, så får de livsråd fra en tvilsom akademiker, så er det frynseprinsipper av en annen influencer, og om ikke lenge ser de noen som går forbi YouTubes regler for hatytringer. Eller kanskje studien er riktig, og det er ikke anbefalingsmotoren som driver folk ned bratte bakker.

Det som kanskje er mer interessant, er at YouTube generelt ser ut til å helle mot å anbefale moderat konservativt innhold til brukere uavhengig av deres politiske orientering, i det minste ifølge NYU-senteret.

Teamet er ikke helt sikre på hvorfor. "Selv om dataene våre lar oss isolere rollen som anbefalingsalgoritmen spiller, klarer vi ikke å se inn i den svarte boksen. Uten denne klarheten kan vi ikke avgjøre om algoritmen fungerer mer kraftfullt for konservative fordi de krever mer ideologisk kongruent innhold enn liberale, eller av en annen grunn», skrev de i avisen.

Det kan være at høyreorienterte er mer sannsynlig å konsekvent se høyreorientert innhold og venstreorienterte er mer sannsynlig å se mer mangfoldig innhold – ting de er enige i og ting de raserisk deler – eller at det rett og slett er mer konservative videoer enn liberale på YouTube. YouTube-anbefalinger kan trekkes til høyre for å gjenspeile videobiblioteket, tilfredsstille publikumsetterspørselen og øke det alltid ønsket engasjement.

En lignende effekt er også observert på Twitter. Dens anbefalingsalgoritme pleier å boost innlegg fra høyrepolitikere og nyhetspublikasjoner mer enn venstreorienterte. Statsvitere fra samme team ved NYU tidligere kommentert at det kan være fordi konservativt innhold er mer sannsynlig å generere mer forargelse og derfor føre til mer engasjement.

Vi har også, forresten, bemerket før at det er et konservativt snakk om at høyreorienterte synspunkter rutinemessig blir urettferdig sensurert eller gjemt bort på internett av Big Tech. Det kan være fordi konservativ politisk kommunikasjon blir sett og flagget som feilinformasjon oftere enn opposisjonens meldinger.

Ingen på YouTube eller Google var i stand til å svare på funnene fra CSMP-studien. ®

Tidstempel:

Mer fra Registeret