YouTube beveelt graag conservatieve video's aan, ongeacht je overtuigingen PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

YouTube houdt ervan om conservatieve video's aan te bevelen, ongeacht je overtuigingen

Het aanbevelingsalgoritme van YouTube houdt kijkers niet alleen voorzichtig vast in milde echokamers, het is ook waarschijnlijker dat je conservatief georiรซnteerde video's suggereert, ongeacht je politieke voorkeur.

Dat is volgens een studies uit het Center for Social Media and Politics (CSMP) van de New York University dat deze maand door Brookings in de schijnwerpers stond.

Sociale netwerken leven en sterven door hun aanbevelingsalgoritmen: ze zijn ontworpen om bezoekers op de sites en apps te houden door ze inhoud te geven die hen verslaafd houdt, en als dat de betrokkenheid stimuleert - links delen met anderen, reageren, abonneren, upvoten, enz. - des te beter. Controversieel of geestverruimend materiaal is hier perfect voor, omdat het waarschijnlijk meer shares en reacties oproept, en dus meer mensen verslaafd houdt.

Deze feeds zijn dus gepersonaliseerd voor elke netizen op basis van hun interesses; dat is essentieel om ze te tekenen en op te sluiten. Echokamers vormen waar mensen dingen posten en delen waarin ze een gemeenschappelijk belang hebben, en alles negeren dat in strijd is met die principes en houdingen. Dit leidt tot een positieve feedbacklus van betrokkenheid binnen de groep, versterkt overtuigingen en verhoogt de tijd - en advertentieweergaven - binnen de app of website.

Hier zijn enkele vragen. Op welk niveau voeden deze aanbevelingsalgoritmen deze echokamers? Duwen de algoritmen gebruikers langs steeds nauwere ideologische paden en radicaliseren ze netizens terwijl ze dieper in een online konijnenhol gaan? Kan software mensen tot extremisme brengen? Is er een systemische bias in de aanbevelingen?

Om dit onderwerp aan te pakken, bestudeerde een team van onderzoekers van CSMP de effecten van YouTube-aanbevelingen door 1,063 volwassen Amerikanen, geworven via Facebook-advertenties, een browserextensie te laten installeren die hun ervaringen met het browsen op de website van Google bijhield.

Het duwt gebruikers in steeds smallere ideologische reeksen van inhoud in wat we het bewijs zouden kunnen noemen van een (zeer) milde ideologische echokamer

De deelnemers werd gevraagd om รฉรฉn van de 25 YouTube-video's te selecteren, bestaande uit een mix van politieke en niet-politieke dingen, en vervolgens een vast pad te volgen door de video's die YouTube hen aanraadde om vervolgens te bekijken.

De netizens werd verteld om altijd op de eerste, tweede, derde, vierde of vijfde aanbeveling te klikken; het aanbevelingsslot is vanaf het begin willekeurig per persoon gekozen. Deze doorgang door de voorgestelde video's van YouTube werd 20 keer herhaald door elke deelnemer, over een periode van oktober tot december 2020.

De extensie registreerde welke video's YouTube in elke fase aanbeveelde, en dus de video's die werden bekeken. Het team beoordeelde de ideologische visie van elke video, gebaseerd op of deze conservatiever of liberaal was, om het effect van echokamers en eventuele latente vooringenomenheid in het systeem te meten, en om te zien of kijkers steeds extremere inhoud werden aanbevolen.

Hoe die ideologische score werd bepaald, is hierin nogal cruciaal, dus we zullen er even op vertrouwen dat het robuust was. De deelnemers werden ook ondervraagd over hun demografie.

"We ontdekten dat het aanbevelingsalgoritme van YouTube de overgrote meerderheid van gebruikers niet door extremistische konijnenholen leidt, hoewel het gebruikers wel naar steeds smallere ideologische reeksen van inhoud duwt in wat we het bewijs zouden kunnen noemen van een (zeer) milde ideologische echokamer," de academici bekendgemaakt in een rapport voor de Brookings Institution.

"We vinden ook dat het YouTube-aanbevelingsalgoritme gebruikers gemiddeld iets naar de rechterkant van het politieke spectrum trekt, wat volgens ons een nieuwe bevinding is."

Het algoritme trekt gebruikers iets naar rechts in het politieke spectrum

De samenvatting van hun paper maakt duidelijk dat deze hobbel naar rechts "ongeacht de ideologie" van YouTube-kijkers gebeurt.

Uit het onderzoek bleek dat gebruikers werden aangespoord om meer rechtse of linkse media te kijken, afhankelijk van hun startpunt. YouTube-aanbevelingen lijken dus enigszins naar rechts af te wijken voor conservatieven en links voor progressieven. Deze verandering in ideologische kracht van de aanbevelingen begon klein en nam toe naarmate de kijker de aanbevelingen van het algoritme langer opvolgde. Met andere woorden, als je (bijvoorbeeld) keek naar wat als matig materiaal werd beschouwd, zullen je aanbevelingen na verloop van tijd meer naar links afdrijven, maar slechts heel weinig en geleidelijk, volgens dit onderzoek.

Milde ideologische echokamers bestaan โ€‹โ€‹dus op YouTube, betoogden de onderzoekers. Dat zou logisch zijn voor YouTube, omdat het ervoor zorgt dat kijkers betrokken blijven en aan de site gekluisterd blijven. Met name lijkt er weinig tot geen bewijs te zijn dat kijkers op een snel spoor worden gezet naar meer ideologisch extreme inhoud.

Dat staat misschien haaks op je eigen ervaring, want soms zie je hoe mensen in konijnenholen worden getrokken. De ene begint met een clip van een ongevaarlijke talkshowpresentator, vervolgens worden ze een beetje aangestuurd door een gematigde komiek, dan kijken ze naar een gesprek van een alternatieve podcaster, dan krijgen ze levensadvies van een twijfelachtige academicus, dan zijn het randprincipes van een andere influencer, en het duurt niet lang of ze kijken naar iemand die de regels van YouTube over haatzaaien omzeilt. Of misschien heeft de studie gelijk, en is het niet de aanbevelingsmotor die mensen van steile hellingen drijft.

Wat misschien interessanter is, is dat YouTube over het algemeen lijkt te neigen naar het aanbevelen van gematigd conservatieve inhoud aan gebruikers, ongeacht hun politieke oriรซntatie, althans volgens het NYU-centrum.

Het team weet niet precies waarom. โ€œHoewel we met onze gegevens de rol van het aanbevelingsalgoritme kunnen isoleren, kunnen we niet in de zwarte doos kijken. Zonder deze duidelijkheid kunnen we niet bepalen of het algoritme krachtiger werkt voor conservatieven omdat ze meer eisen stellen aan ideologisch congruente inhoud dan liberalen, of om een โ€‹โ€‹andere reden', schreven ze in de krant.

Het kan zijn dat rechtse content vaker consequent wordt bekeken en linkse content vaker wordt bekeken โ€“ dingen waar ze het mee eens zijn en dingen waar ze woedend over zijn โ€“ of dat er gewoon meer conservatieve videoโ€™s zijn dan liberale op YouTube. YouTube-aanbevelingen kunnen naar rechts worden getrokken om de videobibliotheek weer te geven, aan de vraag van het publiek te voldoen en die altijd gewenste betrokkenheid te vergroten.

Een soortgelijk effect is ook waargenomen op Twitter. Het aanbevelingsalgoritme heeft de neiging om: boost berichten meer van rechtse politici en nieuwspublicaties dan van linkse. Politicologen van hetzelfde team van NYU eerder commentaar dat het kan zijn omdat conservatieve inhoud meer verontwaardiging genereert en daarom tot meer betrokkenheid leidt.

We hebben trouwens ook al eerder opgemerkt dat het een conservatief gespreksonderwerp is dat rechtse opvattingen routinematig oneerlijk worden gecensureerd of verborgen op het internet door Big Tech. Dat kan zijn omdat conservatieve politieke communicatie wordt gezien en gemarkeerd als verkeerde informatie vaker dan de berichten van de oppositie.

Niemand bij YouTube of Google kon reageren op de bevindingen van het CSMP-onderzoek. ยฎ

Tijdstempel:

Meer van Het register