YouTube rad priporoča konzervativne videoposnetke ne glede na vaša prepričanja PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

YouTube rad priporoča konzervativne videe ne glede na vaša prepričanja

YouTubov algoritem za priporočila ne le nežno ujame gledalcev v blage odmevne komore, ampak je bolj verjetno, da bo predlagal konzervativno nagnjene videoposnetke ne glede na vašo politično usmeritev.

To je v skladu z a študija iz Centra za družbene medije in politiko Univerze v New Yorku (CSMP), ki ga je ta mesec izpostavil Brookings.

Družbena omrežja živijo in umirajo s svojimi algoritmi priporočil: zasnovana so tako, da obiskovalce zadržijo na spletnih mestih in v aplikacijah tako, da jim posredujejo vsebino, ki jih drži zasvojene, in če to spodbuja angažiranost – delijo povezave z drugimi, komentirajo, se naročajo, glasujejo za itd. – toliko bolje. Kontroverzno ali osupljivo gradivo je kot nalašč za to, saj bo verjetno spodbudilo več delitev in komentarjev ter tako več ljudi zasvojilo.

Ti viri so tako prilagojeni vsakemu uporabniku interneta glede na njegove interese; to je bistvenega pomena, da jih privabimo in zaklenemo. Odmevne komore nastanejo tam, kjer ljudje objavljajo in delijo stvari, ki jih imajo skupen interes, in ignorirajo vse, kar je v nasprotju s temi načeli in stališči. To vodi do pozitivne povratne zanke angažiranosti znotraj skupine, krepi prepričanja in poveča čas – in oglede oglasov – v aplikaciji ali na spletnem mestu.

Tukaj je nekaj vprašanj. Do katere ravni ti algoritmi priporočil napajajo te odmevne komore? Ali algoritmi potisnejo uporabnike na vse bolj ozke ideološke poti in radikalizirajo uporabnike interneta, ko gredo globlje v spletno zajčjo luknjo? Ali lahko programska oprema ljudi spremeni v ekstremizem? Ali je v priporočilih sistemska pristranskost?

Da bi se lotili te teme, je skupina raziskovalcev pri CSMP proučevala učinke YouTubovih priporočil tako, da je 1,063 odraslih Američanov, izbranih prek oglasov na Facebooku, prepričala, da so namestili razširitev brskalnika, ki je spremljala njihovo izkušnjo brskanja po spletnem mestu v lasti Googla.

Uporabnike potiska v vse ožje ideološke razpone vsebine, kar lahko imenujemo dokaz (zelo) blage ideološke odmevnice.

Udeleženci so bili naprošeni, da izberejo en začetni YouTube videoposnetek izmed 25, ki je sestavljen iz mešanice političnih in nepolitičnih stvari, nato pa sledijo določeni poti skozi videoposnetke, ki jih je YouTube priporočal, da si ogledajo naslednje.

Uporabnikom interneta je bilo rečeno, naj vedno kliknejo prvo, drugo, tretje, četrto ali peto priporočilo; mesto za priporočilo je bilo izbrano naključno na osebo že od začetka. To prečkanje YouTubovih predlaganih videoposnetkov je vsak udeleženec v obdobju od oktobra do decembra 20 ponovil 2020-krat.

Razširitev je zabeležila, katere videoposnetke je YouTube priporočil na vsaki stopnji, in s tem videoposnetke, ki so bili gledani. Ekipa je ocenila ideološki pogled na vsak videoposnetek glede na to, ali je bolj konzervativen ali liberalen, da bi izmerila učinek odmevnih komor in kakršno koli latentno pristranskost v sistemu ter ugotovila, ali se gledalcem priporoča vse bolj ekstremna vsebina.

Kako je bila ta ideološka ocena določena, je za to nekako ključnega pomena, zato bomo za trenutek verjeli, da je bila robustna. Udeleženci so bili anketirani tudi o njihovi demografiji.

"Ugotovili smo, da YouTubov algoritem za priporočila ne vodi velike večine uporabnikov v ekstremistične zajčje luknje, čeprav potiska uporabnike v vse ožje ideološke razpone vsebine, kar bi lahko rekli dokaz (zelo) blage ideološke odmevne komore," akademiki razkriti v poročilu za inštitut Brookings.

"Ugotavljamo tudi, da algoritem za priporočila YouTube v povprečju potegne uporabnike rahlo na desno stran političnega spektra, kar je po našem mnenju nova ugotovitev."

Algoritem vleče uporabnike nekoliko v desno od političnega spektra

Povzetek njihovega prispevka pojasnjuje, da se ta udarec v desno zgodi "ne glede na ideologijo" gledalcev YouTuba.

Študija je pokazala, da so bili uporabniki prisiljeni k gledanju več desničarskih ali levičarskih medijev, odvisno od njihovega izhodišča. Zdi se, da se priporočila YouTuba tako nekoliko razlikujejo v desno za konzervativce in levo za progresivne. Ta sprememba ideološke moči priporočil se je začela majhna in se je povečevala dlje, ko je gledalec sledil priporočilom algoritma. Z drugimi besedami, če ste (na primer) gledali nekaj, kar je veljalo za zmerno levi material, bodo sčasoma vaša priporočila bolj levo, vendar le zelo rahlo in postopoma, glede na to študijo.

Raziskovalci so trdili, da na YouTubu tako obstajajo blagi ideološki odmevi. To bi bilo smiselno za YouTube, saj zagotavlja, da gledalci ostanejo vključeni in ostanejo pritrjeni na spletno mesto. Predvsem se zdi malo ali nič dokazov, da so gledalci hitro usmerjeni k bolj ideološko ekstremnim vsebinam.

To je lahko v nasprotju z vašimi lastnimi izkušnjami, saj lahko včasih vidite, kako ljudi potegnejo v zajčje luknje. Eden se začne s posnetkom neškodljivega voditelja pogovorne oddaje, nato jih na ogled usmeri zmeren komik, nato se znajdejo, da gledajo pogovor iz alternativnega podcasterja, nato dobijo življenjske nasvete od vprašljivega akademika, potem so to obrobna načela drugega vplivneža in kmalu opazujejo nekoga, ki se izogiba YouTubovim pravilom o sovražnem govoru. Morda pa ima študija prav in ni motor priporočila, ki ljudi vozi po strmih pobočjih.

Morda je bolj zanimivo to, da se zdi, da se YouTube na splošno nagiba k priporočanju zmerno konzervativne vsebine uporabnikom ne glede na njihovo politično usmerjenost, vsaj glede na center NYU.

Ekipa ni povsem prepričana, zakaj. »Čeprav nam naši podatki omogočajo, da izoliramo vlogo, ki jo ima algoritem priporočil, ne moremo pokukati v črno skrinjico. Brez te jasnosti ne moremo ugotoviti, ali algoritem močneje deluje pri konservativcih, ker so bolj zahtevni po ideološko skladnih vsebinah kot liberalci, ali iz kakšnega drugega razloga,« so zapisali v prispevku.

Mogoče je, da bodo desničarji bolj verjetno dosledno gledali desničarske vsebine, levičarji pa bodo bolj verjetno gledali bolj raznolike vsebine – stvari, s katerimi se strinjajo, in stvari, ki jih besno delijo – ali da preprosto obstajajo bolj konzervativni videoposnetki kot liberalne na YouTubu. YouTubova priporočila so lahko povlečena v desno, da odražajo videoteko, zadovoljijo povpraševanje občinstva in spodbudijo tisto vedno želeno sodelovanje.

Podoben učinek so opazili tudi na Twitterju. Njegov priporočilni algoritem se nagiba k temu povečati objave od desnih politikov in novic bolj kot od levih. Politični znanstveniki iz iste ekipe na NYU predhodno komentiral morda zato, ker je bolj verjetno, da bo konzervativna vsebina povzročila več ogorčenja in posledično vodila k večji angažiranosti.

Mimogrede, že smo tudi omenili, da je konservativno govorjenje, da Big Tech rutinsko nepravično cenzurira ali skriva desničarske poglede na internetu. To je morda zato, ker se konservativno politično komuniciranje vidi in označi kot dezinformacija pogosteje kot opozicijska sporočila.

Nihče pri YouTubu ali Googlu se ni mogel odzvati na ugotovitve študije CSMP. ®

Časovni žig:

Več od Register