YouTube adoră să recomande videoclipuri conservatoare, indiferent de convingerile tale PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

YouTube adoră să recomande videoclipuri conservatoare, indiferent de convingerile tale

Algoritmul de recomandare YouTube nu numai că prinde ușor spectatorii în camere de ecou ușor, ci este mai probabil să sugereze videoclipuri conservatoare, indiferent de alinierea dvs. politică.

Asta e în conformitate cu a studiu din Centrul pentru Social Media și Politică (CSMP) al Universității din New York, care a fost evidențiat luna aceasta de Brookings.

Rețelele sociale trăiesc și mor prin algoritmii lor de recomandare: sunt concepute pentru a menține vizitatorii pe site-uri și aplicații, furnizându-le conținut care îi ține cuplati și, dacă acest lucru crește implicarea – partajarea link-urilor cu alții, comentând, abonându-se, votând etc. – cu atât mai bine. Materialul controversat sau uimitor este perfect pentru acest lucru, deoarece este probabil să provoace mai multe distribuiri și comentarii și, astfel, să mențină mai mulți oameni dependenți.

Aceste feeduri sunt astfel personalizate pentru fiecare netizen în funcție de interesele sale; acest lucru este esențial pentru a le atrage și a le bloca. Camerele de eco se formează în cazul în care oamenii postează și împărtășesc lucruri în care au un interes comun și ignoră orice este contrar acestor principii și atitudini. Acest lucru duce la o buclă de feedback pozitiv de implicare în cadrul grupului, consolidând convingerile și crește timpul - și vizionările anunțurilor - în cadrul aplicației sau al site-ului web.

Iată câteva întrebări. Până la ce nivel acești algoritmi de recomandare alimentează aceste camere de ecou? Algoritmii împing utilizatorii pe căi ideologice din ce în ce mai înguste, radicalizând internauții pe măsură ce merg mai adânc într-o groapă online? Poate software-ul să transforme oamenii în extremism? Există o părtinire sistemică în recomandări?

To tackle this subject, a team of researchers at CSMP studied the effects of YouTube recommendations by getting 1,063 adult Americans, recruited via Facebook ads, to install a browser extension that kept tabs on their experience browsing the Google-owned website.

Împinge utilizatorii în game ideologice din ce în ce mai restrânse de conținut, în ceea ce am putea numi dovezi ale unei (foarte) ușoare camere de ecou ideologic.

Participanții au fost rugați să aleagă unul dintre cele 25 de videoclipuri YouTube de pornire, compus dintr-un amestec de chestii politice și non-politice, apoi să urmeze o cale stabilită prin videoclipurile pe care YouTube le-a recomandat să le urmărească în continuare.

The netizens were told to always click on either the first, second, third, fourth, or fifth recommendation each time; the recommendation slot was chosen at random per person from the start. This traversal through YouTube’s suggested videos was repeated 20 times by each participant, over a period from October to December 2020.

The extension logged which videos YouTube recommended at every stage, and thus the videos that were watched. The team scored the ideological view of each vid, based on whether it was more conservative or liberal-leaning, to measure the effect of echo chambers and any latent bias in the system, and to see if viewers were being recommended increasingly more extreme content.

How that ideological score was determined is kinda crucial to this, so we’ll trust for a moment that it was robust. The participants were also surveyed on their demographics.

„Am descoperit că algoritmul de recomandare al YouTube nu conduce marea majoritate a utilizatorilor în gropile extremiste, deși îi împinge pe utilizatori în game ideologice din ce în ce mai restrânse de conținut, în ceea ce am putea numi dovezi ale unei (foarte) ușoare camere de ecou ideologic”, academicieni divulgate într-un raport pentru Brookings Institution.

„De asemenea, constatăm că, în medie, algoritmul de recomandare YouTube trage utilizatorii ușor la dreapta spectrului politic, ceea ce credem că este o descoperire nouă.”

Algoritmul trage utilizatorii ușor la dreapta spectrului politic

Rezumatul lucrării lor arată clar că această denivelare din dreapta se întâmplă „indiferent de ideologia” spectatorilor YouTube.

The study found that users were nudged into watching more right or left-wing media, depending on their starting point. YouTube recommendations would appear to thus diverge slightly off to the right for conservatives and left for progressives. This change in ideological strength of the recommendations started small and increased the longer the viewer followed the algorithm’s recommendations. In other words, if you (for example) watched what was deemed to be moderately left material, over time your recommendations will drift more left, but only very slightly and gradually, according to this study.

Mild ideological echo chambers thus exist on YouTube, the researchers argued. That would make sense for YouTube, as it ensures viewers stay engaged and remain glued to the site. Notably, there seems to be little to no evidence that viewers are put on a fast track to more ideologically extreme content.

That may be at odds with your own experience, as sometimes you can see how people are pulled down into rabbit holes. One starts off with a clip of a harmless talk show host, next they are steered to watch a bit by a moderate comedian, then they find themselves watching a conversation from an alternative podcaster, then they’re getting life advice from a questionable academic, then it’s fringe principles by another influencer, and before long, they’re watching someone skirting YouTube’s rules on hate speech. Or maybe the study’s right, and it isn’t the recommendation engine driving people down steep slopes.

What is more interesting, perhaps, is that YouTube seems to overall lean toward recommending moderately conservative content to users regardless of their political orientation, at least according to the NYU center.

Echipa nu este sigură de ce. „Deși datele noastre ne permit să izolăm rolul jucat de algoritmul de recomandare, nu putem privi în interiorul cutiei negre. Fără această claritate, nu putem determina dacă algoritmul funcționează mai puternic pentru conservatori, deoarece aceștia sunt mai pretențioși în ceea ce privește conținutul congruent ideologic decât liberalii sau dintr-un alt motiv”, au scris ei în lucrare.

It may be that right-wingers are more likely to consistently watch right-wing content and left-wingers are more likely to view more diverse content – stuff they agree with and things they rage-share – or that there are simply more conservative videos than liberal ones on YouTube. YouTube recommendations may be pulled to the right to reflect the video library, satisfy audience demand, and drive up that ever-desired engagement.

Un efect similar a fost observat și pe Twitter. Algoritmul său de recomandare tinde să boost postări de la politicienii de dreapta și publicațiile de știri mai mult decât de la cele de stânga. Politologi din aceeași echipă de la NYU comentat anterior că se poate datora faptului că conținutul conservator este mai probabil să genereze mai multă indignare și, prin urmare, să conducă la mai multă implicare.

De asemenea, am remarcat, de asemenea, că este un subiect de discuție conservator că opiniile de dreapta sunt în mod obișnuit cenzurate pe nedrept sau ascunse pe internet de Big Tech. Acest lucru se poate datora faptului că comunicarea politică conservatoare este văzută și semnalată ca dezinformare mai des decât mesajele opoziţiei.

Nimeni de la YouTube sau Google nu a putut să răspundă la constatările studiului CSMP. ®

Timestamp-ul:

Mai mult de la Registrul