YouTube älskar att rekommendera konservativa videor oavsett vad du tror på PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

YouTube älskar att rekommendera konservativa videor oavsett din tro

YouTubes rekommendationsalgoritm fångar inte bara tittarna försiktigt i milda ekokammare, det är mer sannolikt att föreslå konservativa videor oavsett din politiska inriktning.

Det är enligt a studera från New York Universitys Center for Social Media and Politics (CSMP) som lyftes fram denna månad av Brookings.

Sociala nätverk lever och dör av sina rekommendationsalgoritmer: de är utformade för att hålla besökarna kvar på webbplatserna och apparna genom att mata dem innehåll som håller dem anslutna, och om det ökar engagemanget – dela länkar med andra, kommentera, prenumerera, rösta upp, etc. - desto bättre. Kontroversiellt eller häpnadsväckande material är perfekt för detta, eftersom det sannolikt kommer att leda till fler delningar och kommentarer, och därmed hålla fler människor beroende.

Dessa flöden är alltså anpassade för varje nätanvändare baserat på deras intressen; det är viktigt för att rita och låsa in dem. Ekokammare bildas där människor postar och delar saker de har ett gemensamt intresse av, och ignorerar allt som strider mot dessa principer och attityder. Detta leder till en positiv feedbackslinga av engagemang inom gruppen, vilket förstärker övertygelser och ökar tid – och annonsvisningar – inom appen eller webbplatsen.

Här är några frågor. Till vilken nivå ger dessa rekommendationsalgoritmer energi till dessa ekokamrar? Drar algoritmerna användarna ner på allt smalare ideologiska vägar och radikaliserar nätanvändare när de går djupare in i ett online-kaninhål? Kan programvara förvandla människor till extremism? Finns det en systemisk bias i rekommendationerna?

För att ta itu med detta ämne studerade ett team av forskare vid CSMP effekterna av YouTube-rekommendationer genom att få 1,063 XNUMX vuxna amerikaner, rekryterade via Facebook-annonser, att installera ett webbläsartillägg som höll koll på deras upplevelse av att surfa på den Google-ägda webbplatsen.

Det driver användare till allt smalare ideologiska innehållsområden i vad vi kan kalla bevis på en (mycket) mild ideologisk ekokammare

Deltagarna ombads välja en startvideo på YouTube av 25, som består av en blandning av politiska och icke-politiska saker, och sedan följa en fastställd väg genom videorna som YouTube rekommenderade att de skulle titta på härnäst.

Nätanvändarna uppmanades att alltid klicka på antingen den första, andra, tredje, fjärde eller femte rekommendationen varje gång; rekommendationsplatsen valdes slumpmässigt per person från början. Denna genomgång av YouTubes föreslagna videor upprepades 20 gånger av varje deltagare, under en period från oktober till december 2020.

Tillägget loggade vilka videor YouTube rekommenderade i varje steg, och därmed de videor som sågs. Teamet poängsatte den ideologiska uppfattningen av varje video, baserat på om den var mer konservativ eller liberal, för att mäta effekten av ekokammare och eventuell latent bias i systemet, och för att se om tittarna rekommenderades allt mer extremt innehåll.

Hur den ideologiska poängen fastställdes är ganska avgörande för detta, så vi litar ett ögonblick på att det var robust. Deltagarna undersöktes också om sin demografi.

"Vi fann att YouTubes rekommendationsalgoritm inte leder den stora majoriteten av användare ner i extremistiska kaninhål, även om den driver användare till allt smalare ideologiska innehållsområden i vad vi kan kalla bevis på en (mycket) mild ideologisk ekokammare," akademiker beskrives i en rapport för Brookings Institution.

"Vi finner också att YouTubes rekommendationsalgoritm i genomsnitt drar användarna något till höger om det politiska spektrumet, vilket vi tror är ett nytt fynd."

Algoritmen drar användarna något till höger om det politiska spektrumet

Sammanfattningen av deras uppsats klargör att denna stöt till höger sker "oavsett ideologin" för YouTube-tittare.

Studien fann att användare knuffades till att titta på mer höger- eller vänsterorienterad media, beroende på deras utgångspunkt. YouTubes rekommendationer verkar därför skilja sig något åt ​​höger för konservativa och vänster för progressiva. Denna förändring i rekommendationernas ideologiska styrka började smått och ökade ju längre tittaren följde algoritmens rekommendationer. Med andra ord, om du (till exempel) tittade på vad som ansågs vara måttligt lämnat material, kommer dina rekommendationer med tiden att glida mer åt vänster, men bara väldigt lite och gradvis, enligt denna studie.

Milda ideologiska ekokammare finns alltså på YouTube, hävdade forskarna. Det skulle vara vettigt för YouTube, eftersom det säkerställer att tittarna förblir engagerade och förblir klistrade vid sidan. Noterbart tycks det finnas få eller inga bevis för att tittarna hamnar på ett snabbt spår till mer ideologiskt extremt innehåll.

Det kan strida mot din egen erfarenhet, eftersom du ibland kan se hur människor dras ner i kaninhål. En börjar med ett klipp av en ofarlig talkshow-värd, sedan styrs de till att titta lite av en moderat komiker, sedan kommer de på att de tittar på en konversation från en alternativ podcaster, sedan får de livsråd från en tveksam akademiker, sedan är det fransprinciper av en annan influencer, och snart ser de någon som går utanför YouTubes regler om hatretorik. Eller kanske studien har rätt, och det är inte rekommendationsmotorn som driver människor nerför branta sluttningar.

Vad som kanske är mer intressant är att YouTube överlag verkar luta mot att rekommendera måttligt konservativt innehåll till användare oavsett deras politiska inriktning, åtminstone enligt NYU-centret.

Teamet är inte riktigt säkra på varför. "Även om våra data tillåter oss att isolera den roll som rekommendationsalgoritmen spelar, kan vi inte titta in i den svarta lådan. Utan denna tydlighet kan vi inte avgöra om algoritmen fungerar mer kraftfullt för konservativa eftersom de kräver mer ideologiskt kongruent innehåll än liberaler, eller av någon annan anledning”, skrev de i tidningen.

Det kan vara så att högerextrema är mer benägna att konsekvent titta på högerorienterat innehåll och vänsterextremister är mer benägna att se mer mångsidigt innehåll – saker de håller med om och saker som de delar med sig av raseri – eller att det helt enkelt finns mer konservativa videor än liberala på YouTube. YouTube-rekommendationer kan dras åt höger för att återspegla videobiblioteket, tillfredsställa publikens efterfrågan och driva upp det ständigt eftersträvade engagemanget.

En liknande effekt har även observerats på Twitter. Dess rekommendationsalgoritm tenderar att boosta inlägg från högerpolitiker och nyhetspublikationer mer än vänsterorienterade. Statsvetare från samma team vid NYU tidigare kommenterat att det kan bero på att konservativt innehåll är mer sannolikt att skapa mer upprördhet och därför leda till mer engagemang.

Vi har också, förresten, noterat tidigare att det är en konservativ diskussionspunkt att högerns åsikter rutinmässigt orättvist censureras eller göms undan på internet av Big Tech. Det kan bero på att konservativ politisk kommunikation ses och flaggas som desinformation oftare än oppositionens meddelande.

Ingen på YouTube eller Google kunde svara på CSMP-studiens resultat. ®

Tidsstämpel:

Mer från Registret