YouTube uwielbia polecać konserwatywne filmy bez względu na Twoje przekonania PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

YouTube uwielbia polecać konserwatywne filmy niezależnie od Twoich przekonań

Algorytm rekomendacji YouTube nie tylko delikatnie więzi widzów w komorach z łagodnym echem, ale jest bardziej prawdopodobne, że zasugeruje konserwatywne filmy, niezależnie od twojego politycznego przynależności.

To zgodnie z a „The Puzzle of Monogamous Marriage” z Centrum Mediów Społecznych i Polityki (CSMP) Uniwersytetu Nowojorskiego, które zostało wyróżnione w tym miesiącu przez Brookings.

Sieci społecznościowe żyją i umierają dzięki ich algorytmom rekomendacji: są zaprojektowane tak, aby utrzymać odwiedzających na stronach i w aplikacjach, dostarczając im treści, które ich przyciągają, a jeśli to zwiększa zaangażowanie – udostępnianie linków innym, komentowanie, subskrybowanie, głosowanie itp. – tym lepiej. Kontrowersyjny lub oszałamiający materiał jest do tego idealny, ponieważ może wywołać więcej udostępnień i komentarzy, a tym samym sprawić, że więcej osób będzie uzależnionych.

Kanały te są zatem spersonalizowane dla każdego internauty w oparciu o jego zainteresowania; jest to niezbędne do ich rysowania i zamykania. Komnaty Echa tworzą się, w których ludzie publikują i udostępniają rzeczy, którymi się interesują, i ignorują wszystko, co jest sprzeczne z tymi zasadami i postawami. Prowadzi to do pozytywnej pętli sprzężenia zwrotnego zaangażowania w grupie, wzmacniając przekonania i zwiększając czas – i liczbę wyświetleń reklam – w aplikacji lub witrynie.

Oto kilka pytań. Do jakiego poziomu te algorytmy rekomendacji zasilają te komory echa? Czy algorytmy spychają użytkowników coraz węższymi ścieżkami ideologicznymi, radykalizując internautów, gdy zagłębiają się w internetową króliczą norę? Czy oprogramowanie może doprowadzić ludzi do ekstremizmu? Czy w zaleceniach jest błąd systemowy?

Aby zająć się tym tematem, zespół naukowców z CSMP zbadał skutki rekomendacji YouTube, zachęcając 1,063 dorosłych Amerykanów, zwerbowanych za pośrednictwem reklam na Facebooku, do zainstalowania rozszerzenia przeglądarki, które śledziło ich doświadczenia związane z przeglądaniem witryny internetowej należącej do Google.

Popycha użytkowników do coraz węższych ideologicznych zakresów treści w czymś, co moglibyśmy nazwać dowodem (bardzo) łagodnej ideologicznej komory echa

Uczestników poproszono o wybranie jednego spośród 25 początkowych filmów na YouTube, składającego się z mieszanki treści politycznych i niepolitycznych, a następnie podążanie ustaloną ścieżką poprzez filmy polecane przez YouTube jako następne.

Internautom kazano zawsze klikać za każdym razem pierwszą, drugą, trzecią, czwartą lub piątą rekomendację; miejsce rekomendacji zostało wybrane losowo na osobę od początku. To przechodzenie przez sugerowane filmy YouTube zostało powtórzone przez każdego uczestnika 20 razy w okresie od października do grudnia 2020 roku.

Rozszerzenie rejestrowało, które filmy polecane przez YouTube na każdym etapie, a tym samym filmy, które zostały obejrzane. Zespół ocenił ideologiczny widok każdego filmu, w oparciu o to, czy był on bardziej konserwatywny, czy liberalny, aby zmierzyć wpływ komór echa i wszelkie ukryte uprzedzenia w systemie oraz sprawdzić, czy widzom polecano coraz bardziej ekstremalne treści.

To, w jaki sposób została ustalona ta ideologiczna ocena, jest w tym poniekąd kluczowe, więc przez chwilę będziemy wierzyć, że była solidna. Uczestnicy zostali również przebadani pod kątem ich demografii.

„Odkryliśmy, że algorytm rekomendacji YouTube nie prowadzi zdecydowanej większości użytkowników do ekstremistycznych króliczych nor, chociaż popycha użytkowników do coraz węższych ideologicznych zakresów treści w tym, co możemy nazwać dowodem (bardzo) łagodnej ideologicznej komory echa” akademicy ujawnione w raporcie dla Brookings Institution.

„Odkryliśmy również, że algorytm rekomendacji YouTube przeciętnie przenosi użytkowników nieco na prawo od spektrum politycznego, co naszym zdaniem jest nowatorskim odkryciem”.

Algorytm przesuwa użytkowników nieco na prawo od politycznego spektrum

Streszczenie ich artykułu wyjaśnia, że ​​to uderzenie w prawo dzieje się „niezależnie od ideologii” widzów YouTube.

Badanie wykazało, że użytkownicy byli zachęcani do oglądania większej liczby prawicowych lub lewicowych mediów, w zależności od punktu wyjścia. Wygląda na to, że rekomendacje YouTube odbiegają nieco w prawo dla konserwatystów i lewo dla postępowców. Ta zmiana w sile ideologicznej zaleceń zaczynała się niewielka i narastała, im dłużej widz postępował zgodnie z zaleceniami algorytmu. Innymi słowy, jeśli (na przykład) obejrzałeś materiał uznany za umiarkowanie pozostawiony, z czasem Twoje rekomendacje będą przesuwać się bardziej w lewo, ale tylko nieznacznie i stopniowo, zgodnie z tym badaniem.

W ten sposób na YouTube istnieją łagodne ideologiczne komory echa, argumentowali naukowcy. Miałoby to sens dla YouTube, ponieważ zapewnia widzom utrzymanie zaangażowania i pozostanie przyklejonym do witryny. Warto zauważyć, że wydaje się, że niewiele lub nie ma dowodów na to, że widzowie są naprowadzani na szybką ścieżkę do bardziej ekstremalnych ideologicznie treści.

Może to być sprzeczne z twoim własnym doświadczeniem, ponieważ czasami możesz zobaczyć, jak ludzie są wciągani do króliczych nor. Jeden zaczyna się od klipu z nieszkodliwym gospodarzem talk-show, następnie kierują go do obejrzenia przez umiarkowanego komika, potem widzą rozmowę z alternatywnego podcastera, a potem otrzymują radę życiową od wątpliwego naukowca. potem są to skrajne zasady innego influencera, a wkrótce widzą, jak ktoś omija zasady YouTube dotyczące mowy nienawiści. A może badanie ma rację i nie jest to silnik rekomendacji, który prowadzi ludzi po stromych zboczach.

Być może bardziej interesujące jest to, że YouTube wydaje się ogólnie skłaniać do polecania umiarkowanie konserwatywnych treści użytkownikom, niezależnie od ich orientacji politycznej, przynajmniej według centrum NYU.

Zespół nie jest do końca pewien dlaczego. „Chociaż nasze dane pozwalają nam wyodrębnić rolę, jaką odgrywa algorytm rekomendacji, nie jesteśmy w stanie zajrzeć do wnętrza czarnej skrzynki. Bez tej jasności nie możemy określić, czy algorytm działa silniej dla konserwatystów, ponieważ są oni bardziej wymagający ideologicznie spójnej treści niż liberałowie, czy z jakiegoś innego powodu” – napisali w gazecie.

Być może prawicowcy częściej oglądają treści prawicowe, a lewicowcy chętniej oglądają bardziej zróżnicowane treści – rzeczy, z którymi się zgadzają i rzeczy, z którymi się wściekają – lub że są po prostu bardziej konserwatywne filmy niż liberalne na YouTube. Rekomendacje YouTube mogą zostać przesunięte w prawo, aby odzwierciedlić bibliotekę wideo, zaspokoić zapotrzebowanie odbiorców i zwiększyć pożądane zaangażowanie.

Podobny efekt zaobserwowano również na Twitterze. Jego algorytm rekomendacji ma tendencję do zwiększyć posty od prawicowych polityków i publikacji informacyjnych bardziej niż lewicowych. Politolodzy z tego samego zespołu na NYU poprzednio skomentowane może to być spowodowane tym, że konserwatywne treści z większym prawdopodobieństwem wywołają większe oburzenie, a tym samym prowadzą do większego zaangażowania.

Nawiasem mówiąc, zauważyliśmy już wcześniej, że konserwatywnym argumentem jest to, że poglądy prawicowe są rutynowo niesprawiedliwie cenzurowane lub ukrywane w Internecie przez Big Tech. Może to być spowodowane tym, że konserwatywna komunikacja polityczna jest postrzegana i oznaczana jako dezinformacja częściej niż komunikaty sprzeciwu.

Nikt w YouTube ani w Google nie był w stanie odpowiedzieć na wyniki badania CSMP. ®

Znak czasu:

Więcej z Rejestr