A YouTube a PlatoBlockchain Data Intelligence meggyőződésétől függetlenül szeret konzervatív videókat ajánlani. Függőleges keresés. Ai.

A YouTube szeret konzervatív videókat ajánlani, függetlenül a meggyőződésedtől

A YouTube ajánlási algoritmusa nemcsak finoman csapdába ejti a nézőket az enyhe visszhangkamrákba, hanem nagyobb valószínűséggel javasol konzervatív beállítottságú videókat, függetlenül az Ön politikai irányultságától.

Ez az a tanulmány a New York-i Egyetem Social Media and Politics (CSMP) központjából, amelyet ebben a hónapban a Brookings kiemelt.

A közösségi hálózatok az ajánlási algoritmusaik szerint élnek és halnak meg: úgy tervezték őket, hogy a látogatókat a webhelyeken és alkalmazásokban tartsák azáltal, hogy olyan tartalommal látják el őket, amely leköti őket, és ha ez növeli az elköteleződést – linkek megosztása másokkal, megjegyzések, feliratkozások, pozitív szavazatok stb. - annál jobb. Az ellentmondásos vagy észbontó anyagok erre tökéletesek, mivel valószínűleg több megosztást és kommentet váltanak ki belőle, és így több embert tartanak függővé.

Ezek a hírfolyamok így minden netező számára személyre szabottak érdeklődési körük alapján; Ez elengedhetetlen a behúzásukhoz és zárolásukhoz. A visszhangkamrák olyan helyeket képeznek, ahol az emberek olyan dolgokat tesznek közzé és osztanak meg, amelyek iránt közös érdeklődésük van, és figyelmen kívül hagynak minden, ami ezekkel az elvekkel és attitűdökkel ellentétes. Ez a csoporton belüli elkötelezettség pozitív visszacsatolási hurkához vezet, megerősíti a hiedelmeket, és növeli az alkalmazáson vagy a webhelyen belüli időt – és a hirdetések megtekintését.

Íme néhány kérdés. Milyen szinten táplálják ezek az ajánlási algoritmusok ezeket a visszhangkamrákat? Vajon az algoritmusok egyre szűkebb ideológiai utakra taszítják a felhasználókat, radikalizálva a netezőket, ahogy egyre mélyebbre mennek egy online nyúllyukba? A szoftverek szélsőségességre tudják fordítani az embereket? Van-e rendszerszintű torzítás az ajánlásokban?

Ennek a témának a megoldása érdekében a CSMP kutatócsoportja a YouTube-ajánlások hatásait vizsgálta úgy, hogy 1,063 felnőtt amerikait, akiket Facebook-hirdetésekkel toboroztak, telepítettek egy böngészőbővítményre, amely figyelemmel kísérte a Google tulajdonában lévő webhely böngészését.

A felhasználókat a tartalom egyre szűkebb ideológiai tartományaiba taszítja, amit egy (nagyon) enyhe ideológiai visszhangkamra bizonyítékának nevezhetünk.

A résztvevőket arra kérték, hogy válasszanak ki egy kezdő YouTube-videót a 25-ből, amely politikai és nem politikai dolgok keverékéből áll, majd kövesse a YouTube által a következő megtekintésükre javasolt videókat.

A netezőknek azt mondták, hogy mindig kattintsanak az első, második, harmadik, negyedik vagy ötödik ajánlásra; az ajánlási helyet a kezdetektől fogva személyenként véletlenszerűen választották ki. Ezt a bejárást a YouTube javasolt videóin minden résztvevő 20-szor ismételte meg 2020 októberétől decemberéig.

A bővítmény minden szakaszban naplózta, hogy a YouTube mely videókat ajánlotta, így a megtekintett videókat. A csapat az egyes videók ideológiai nézetét pontozta, annak alapján, hogy konzervatívabb vagy liberálisabb, hogy mérjék a visszhangkamrák hatását és a rendszerben lévő esetleges látens torzításokat, és hogy a nézőknek egyre szélsőségesebb tartalmat ajánljanak-e.

Az, hogy ezt az ideológiai pontszámot hogyan határozták meg, alapvető fontosságú ebben, ezért egy pillanatig bízunk benne, hogy robusztus volt. A résztvevőket demográfiai helyzetükről is megkérdezték.

„Úgy találtuk, hogy a YouTube ajánlási algoritmusa nem vezeti a felhasználók túlnyomó többségét a szélsőséges nyúllyukakba, bár egyre szűkebb ideológiai tartományokba taszítja a felhasználókat abban, amit egy (nagyon) enyhe ideológiai visszhangkamra bizonyítékának nevezhetünk” akadémikusok ismertetett a Brookings Institution számára készített jelentésben.

„Azt is tapasztaljuk, hogy a YouTube ajánlási algoritmusa átlagosan kissé jobbra húzza a felhasználókat a politikai spektrumtól, ami véleményünk szerint újszerű eredmény.”

Az algoritmus kissé jobbra húzza a felhasználókat a politikai spektrumtól

Írásuk absztraktja világossá teszi, hogy ez a jobb oldali ugrás a YouTube-nézők „ideológiájától függetlenül” megtörténik.

A tanulmány azt találta, hogy a felhasználókat arra késztették, hogy inkább jobb- vagy baloldali médiát nézzenek, attól függően, hogy kiindultak. Úgy tűnik, hogy a YouTube-ajánlások kissé eltérnek jobbra a konzervatívok és balra a progresszívek esetében. Ez a változás az ajánlások ideológiai erejében kicsiben indult, és minél tovább nőtt, minél tovább követte a néző az algoritmus ajánlásait. Más szóval, ha Ön (például) azt nézte, amit mérsékelten balra hagyottnak ítéltek, akkor az idő múlásával az Ön ajánlásai inkább balra sodródnak, de a tanulmány szerint csak nagyon kis mértékben és fokozatosan.

Enyhe ideológiai visszhangkamrák tehát léteznek a YouTube-on – érveltek a kutatók. Ez logikus lenne a YouTube számára, mivel biztosítja a nézők elkötelezettségét, és ragaszkodnak a webhelyhez. Nevezetesen, úgy tűnik, hogy kevés vagy semmi bizonyíték nincs arra, hogy a nézők felgyorsuljanak az ideológiailag szélsőségesebb tartalom felé.

Ez ellentmondhat a saját tapasztalataidnak, mivel néha láthatod, hogyan rángatják az embereket nyúlüregekbe. Az egyik egy ártalmatlan talkshow-műsorvezető klipjével kezdődik, majd egy mérsékelt humorista irányítja, hogy nézzen egy kicsit, aztán azon kapják magukat, hogy egy alternatív podcaster beszélgetését nézik, majd életre szóló tanácsokat kapnak egy megkérdőjelezhető akadémikustól. akkor ez egy másik influencer perifériás elvei, és nemsokára azt nézik, hogy valaki megkerüli a YouTube gyűlöletbeszédre vonatkozó szabályait. Vagy talán igaza van a tanulmánynak, és nem ez az ajánlás motorja hajtja le az embereket meredek lejtőkön.

Ami talán még érdekesebb, az az, hogy a YouTube összességében hajlik arra, hogy mérsékelten konzervatív tartalmakat ajánljon a felhasználóknak, politikai irányultságuktól függetlenül, legalábbis a NYU központja szerint.

A csapat nem tudja pontosan, miért. „Bár adataink lehetővé teszik, hogy elkülönítsük az ajánlási algoritmus szerepét, nem tudunk belekukucskálni a fekete dobozba. Ennek az egyértelműségnek a nélkül nem tudjuk megállapítani, hogy a konzervatívok esetében azért működik-e erősebben az algoritmus, mert ők igényesebbek az ideológiailag egybevágó tartalomra, mint a liberálisok, vagy más okból” – írták a lapban.

Előfordulhat, hogy a jobboldaliak nagyobb valószínűséggel néznek következetesen jobboldali tartalmakat, a baloldaliak pedig nagyobb valószínűséggel néznek sokrétűbb tartalmat – olyan dolgokat, amelyekkel egyetértenek, és olyan dolgokat, amelyeket dühöngnek megosztva –, vagy egyszerűen vannak konzervatívabb videók, mint liberálisok a YouTube-on. Előfordulhat, hogy a YouTube-ajánlások jobbra húzódnak, hogy tükrözzék a videótárat, kielégítsék a közönségigényeket, és fokozzák a mindig vágyott elköteleződést.

Hasonló hatást figyeltek meg a Twitteren is. Az ajánlási algoritmus arra hajlik boost posztok jobboldali politikusoktól és hírkiadványoktól inkább, mint baloldaliaktól. Politológusok ugyanabból a csapatból a NYU-ban korábban kommentált Ennek az az oka, hogy a konzervatív tartalom nagyobb valószínűséggel vált ki felháborodást, és így nagyobb elkötelezettséget vált ki.

Korábban egyébként azt is megjegyeztük, hogy konzervatív beszédtéma, hogy a jobboldali nézeteket a Big Tech rutinszerűen méltánytalanul cenzúrázza vagy elrejti az interneten. Ennek az lehet az oka, hogy a konzervatív politikai kommunikációt félretájékoztatásnak tekintik és megjelölik gyakrabban mint az ellenzéki üzenetküldés.

A YouTube-nál vagy a Google-nál senki sem tudott válaszolni a CSMP-tanulmány megállapításaira. ®

Időbélyeg:

Még több A regisztráció