YouTube ama consigliare video conservatori indipendentemente dalle tue convinzioni PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

YouTube ama consigliare video conservatori indipendentemente dalle tue convinzioni

L'algoritmo di raccomandazione di YouTube non solo intrappola delicatamente gli spettatori in camere di eco lieve, ma è più probabile che suggerisca video di tendenza conservatrice indipendentemente dal tuo allineamento politico.

Questo è secondo a studio dal Center for Social Media and Politics (CSMP) della New York University che è stato evidenziato questo mese da Brookings.

I social network vivono e muoiono in base ai loro algoritmi di raccomandazione: sono progettati per mantenere i visitatori sui siti e sulle app fornendo loro contenuti che li tengono agganciati e, se ciò aumenta il coinvolgimento, condividendo collegamenti con altri, commentando, iscrivendosi, votando, ecc. - tutto il meglio. Il materiale controverso o strabiliante è perfetto per questo, poiché è probabile che susciti più condivisioni e commenti e quindi mantieni più persone dipendenti.

Questi feed sono quindi personalizzati per ciascun netizen in base ai loro interessi; questo è essenziale per attirarli e bloccarli. Le camere dell'eco si formano in cui le persone pubblicano e condividono cose a cui hanno un interesse comune e ignorano qualsiasi cosa contraria a quei principi e atteggiamenti. Ciò porta a un ciclo di feedback positivo di coinvolgimento all'interno del gruppo, rafforzando le convinzioni e aumentando il tempo - e le visualizzazioni degli annunci - all'interno dell'app o del sito Web.

Ecco alcune domande. A che livello questi algoritmi di raccomandazione alimentano queste camere d'eco? Gli algoritmi spingono gli utenti verso percorsi ideologici sempre più stretti, radicalizzando i netizen mentre si addentrano in una tana del coniglio online? Il software può trasformare le persone verso l'estremismo? C'è un pregiudizio sistemico nelle raccomandazioni?

Per affrontare questo argomento, un team di ricercatori del CSMP ha studiato gli effetti dei consigli di YouTube convincendo 1,063 americani adulti, reclutati tramite annunci di Facebook, a installare un'estensione del browser che teneva sotto controllo la loro esperienza di navigazione sul sito web di proprietà di Google.

Spinge gli utenti in gamme ideologiche di contenuti sempre più ristrette in quella che potremmo chiamare prove di una camera di eco ideologica (molto) mite

Ai partecipanti è stato chiesto di selezionare un video iniziale di YouTube su 25, composto da un misto di materiale politico e non, e quindi seguire un percorso prestabilito attraverso i video che YouTube ha consigliato di guardare in seguito.

Agli utenti della rete è stato detto di fare sempre clic ogni volta sulla prima, seconda, terza, quarta o quinta raccomandazione; lo slot di raccomandazione è stato scelto casualmente per persona fin dall'inizio. Questa traversata attraverso i video suggeriti da YouTube è stata ripetuta 20 volte da ciascun partecipante, in un periodo da ottobre a dicembre 2020.

L'estensione registrava quali video YouTube consigliava in ogni fase e quindi i video guardati. Il team ha valutato la visione ideologica di ciascun video, in base al fatto che fosse più conservatore o di orientamento liberale, per misurare l'effetto delle camere di eco e qualsiasi pregiudizio latente nel sistema e per vedere se agli spettatori venivano consigliati contenuti sempre più estremi.

Il modo in cui è stato determinato il punteggio ideologico è fondamentale per questo, quindi confideremo per un momento che fosse solido. I partecipanti sono stati intervistati anche sui loro dati demografici.

"Abbiamo scoperto che l'algoritmo di raccomandazione di YouTube non conduce la stragrande maggioranza degli utenti nelle tane degli estremisti, sebbene spinga gli utenti in gamme ideologiche di contenuti sempre più ristrette in quella che potremmo definire la prova di una camera di eco ideologica (molto) mite", il accademici comunicati in un rapporto per la Brookings Institution.

"Troviamo anche che, in media, l'algoritmo di raccomandazione di YouTube porta gli utenti leggermente a destra dello spettro politico, cosa che riteniamo sia una scoperta nuova".

L'algoritmo trascina gli utenti leggermente a destra dello spettro politico

L'abstract del loro articolo chiarisce che questo urto a destra avviene "indipendentemente dall'ideologia" degli spettatori di YouTube.

Lo studio ha rilevato che gli utenti sono stati spinti a guardare più media di destra o di sinistra, a seconda del punto di partenza. Le raccomandazioni di YouTube sembrerebbero quindi divergere leggermente a destra per i conservatori e a sinistra per i progressisti. Questo cambiamento nella forza ideologica delle raccomandazioni è iniziato in piccolo ed è aumentato man mano che lo spettatore seguiva le raccomandazioni dell’algoritmo. In altre parole, se tu (ad esempio) guardassi ciò che era considerato materiale moderatamente di sinistra, col tempo i tuoi consigli si sposteranno più a sinistra, ma solo leggermente e gradualmente, secondo questo studio.

Su YouTube esistono quindi delle camere di eco ideologiche, sostengono i ricercatori. Ciò avrebbe senso per YouTube, poiché garantisce che gli spettatori rimangano coinvolti e rimangano incollati al sito. In particolare, sembra esserci poca o nessuna prova che gli spettatori vengano indirizzati rapidamente verso contenuti ideologicamente più estremi.

Ciò potrebbe essere in contrasto con la tua esperienza, poiché a volte puoi vedere come le persone vengono trascinate nelle tane del coniglio. Si inizia con la clip di un innocuo conduttore di talk show, poi si viene guidati a guardarne un po' da un comico moderato, poi si ritrovano a guardare una conversazione da un podcaster alternativo, poi ricevono consigli di vita da un accademico discutibile, poi si tratta di principi marginali di un altro influencer e, in breve tempo, stanno osservando qualcuno che aggira le regole di YouTube sull'incitamento all'odio. O forse lo studio ha ragione e non è il motore delle raccomandazioni a spingere le persone lungo pendii ripidi.

Ciò che è più interessante, forse, è che YouTube sembra tendere nel complesso a consigliare contenuti moderatamente conservatori agli utenti indipendentemente dal loro orientamento politico, almeno secondo il centro della New York University.

La squadra non è del tutto sicura del perché. “Sebbene i nostri dati ci consentano di isolare il ruolo svolto dall'algoritmo di raccomandazione, non siamo in grado di scrutare all'interno della scatola nera. Senza questa chiarezza, non possiamo determinare se l'algoritmo funziona in modo più energico per i conservatori perché sono più esigenti in termini di contenuti ideologicamente congruenti rispetto ai liberali, o per qualche altra ragione", hanno scritto nel documento.

Può darsi che gli esponenti della destra siano più propensi a guardare costantemente contenuti di destra e quelli della sinistra siano più propensi a visualizzare contenuti più diversificati – cose con cui sono d'accordo e cose che condividono con rabbia – o che ci siano semplicemente video più conservatori di quelli liberali su YouTube. I consigli di YouTube possono essere spostati a destra per riflettere la libreria video, soddisfare la domanda del pubblico e aumentare il coinvolgimento sempre desiderato.

Un effetto simile è stato osservato anche su Twitter. Il suo algoritmo di raccomandazione tende a aumentare i post dai politici di destra e dalle testate giornalistiche più che da quelli di sinistra. Scienziati politici della stessa squadra alla New York University precedentemente commentato ciò potrebbe essere dovuto al fatto che è più probabile che i contenuti conservativi generino più indignazione e, quindi, portino a un maggiore coinvolgimento.

A proposito, abbiamo anche notato prima che è un punto di discussione conservatore che le opinioni di destra sono regolarmente censurate ingiustamente o nascoste su Internet da Big Tech. Ciò può essere dovuto al fatto che la comunicazione politica conservatrice viene vista e contrassegnata come disinformazione più spesso rispetto al messaggio di opposizione.

Nessuno su YouTube o Google è stato in grado di rispondere ai risultati dello studio CSMP. ®

Timestamp:

Di più da Il registro