YouTube любить рекомендувати консервативні відео незалежно від ваших переконань PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

YouTube любить рекомендувати консервативні відео незалежно від ваших переконань

Алгоритм рекомендацій YouTube не лише м’яко затримує глядачів у м’яких ехо-камерах, він, швидше за все, пропонуватиме консервативні відео незалежно від вашої політичної орієнтації.

Це згідно з a вчитися Центр соціальних медіа та політики Нью-Йоркського університету (CSMP), про що цього місяця висвітлив Брукінгс.

Соціальні мережі живуть і вмирають завдяки своїм алгоритмам рекомендацій: вони розроблені, щоб утримувати відвідувачів на сайтах і в додатках, надаючи їм вміст, який їх захоплює, і якщо це сприяє залученню – діляться посиланнями з іншими, коментують, підписуються, голосують за тощо. – тим краще. Суперечливий або карколомний матеріал ідеально підходить для цього, оскільки він, швидше за все, спричинить більше розповсюджень і коментарів, а отже, утримає більше людей у ​​залежності.

Таким чином, ці канали персоналізовані для кожного користувача мережі на основі його інтересів; це дуже важливо для того, щоб залучити та зафіксувати їх. Ехо-камери формуються там, де люди публікують і діляться матеріалами, які їх цікавлять, і ігнорують усе, що суперечить цим принципам і ставленням. Це призводить до циклу позитивного зворотного зв’язку всередині групи, зміцнення переконань і збільшення часу – і перегляду реклами – у додатку чи на веб-сайті.

Ось кілька запитань. До якого рівня ці рекомендаційні алгоритми підживлюють ці ехокамери? Чи штовхають алгоритми користувачів все більш вузькими ідеологічними шляхами, радикалізуючи користувачів мережі, коли вони все глибше занурюються в онлайн-кролячу нору? Чи може програмне забезпечення звернути людей до екстремізму? Чи є системне упередження в рекомендаціях?

Щоб вирішити цю тему, команда дослідників із CSMP вивчила вплив рекомендацій YouTube, змусивши 1,063 дорослих американців, залучених за допомогою оголошень у Facebook, встановити розширення для браузера, яке відстежувало їхній досвід перегляду веб-сайту, що належить Google.

Це підштовхує користувачів до все більш вузьких ідеологічних діапазонів вмісту, що ми можемо назвати доказом (дуже) м’якої ідеологічної ехокамери

Учасників попросили вибрати одне початкове відео YouTube із 25, яке складається з політичних і неполітичних речей, а потім пройти встановленим шляхом через відео, які YouTube рекомендував їм переглянути далі.

Користувачам мережі було сказано завжди натискати на першу, другу, третю, четверту або п’яту рекомендацію щоразу; слот для рекомендацій вибирався випадковим чином для кожної особи з самого початку. Цей перегляд запропонованих відео YouTube повторювався 20 разів кожним учасником протягом періоду з жовтня по грудень 2020 року.

Розширення реєструвало, які відео YouTube рекомендував на кожному етапі, і, отже, відео, які переглядалися. Команда оцінювала ідеологічне бачення кожного відео залежно від того, було воно більш консервативним чи ліберальним, щоб виміряти вплив ехокамер і будь-яку приховану упередженість у системі, а також перевірити, чи глядачам рекомендують все більш екстремальний контент.

Те, як було визначено цей ідеологічний бал, має вирішальне значення для цього, тому ми на мить повіримо, що він був надійним. Учасників також було опитано щодо їх демографії.

«Ми виявили, що алгоритм рекомендацій YouTube не веде переважну більшість користувачів до екстремістських кролячих нор, хоча він штовхає користувачів у все більш вузькі ідеологічні діапазони вмісту, що ми можемо назвати доказом (дуже) м’якої ідеологічної ехокамери», – академіки розкрито у звіті для Інституту Брукінгса.

«Ми також виявили, що в середньому алгоритм рекомендацій YouTube переміщує користувачів трохи вправо від політичного спектру, що, на нашу думку, є новим відкриттям».

Алгоритм перетягує користувачів трохи вправо від політичного спектру

Анотація до їхньої статті чітко пояснює, що цей удар праворуч відбувається «незалежно від ідеології» глядачів YouTube.

Дослідження показало, що користувачів спонукали до перегляду більше правих чи лівих медіа, залежно від їх початкової точки. Таким чином, рекомендації YouTube, здавалося б, дещо розходяться праворуч для консерваторів і ліворуч для прогресивних. Ця зміна в ідеологічній силі рекомендацій спочатку була невеликою та зростала, чим довше глядач дотримувався рекомендацій алгоритму. Іншими словами, якщо ви (наприклад) дивилися те, що вважалося помірно лівим матеріалом, з часом ваші рекомендації будуть відхилятися ліворуч, але лише дуже незначно та поступово, відповідно до цього дослідження.

Дослідники стверджують, що таким чином на YouTube існують м’які ідеологічні відлуння. Це мало б сенс для YouTube, оскільки це гарантує, що глядачі залишаються зацікавленими та залишаються прив’язаними до сайту. Примітно, що, здається, практично немає жодних доказів того, що глядачі налаштовані на швидкий шлях до більш ідеологічно екстремального контенту.

Це може суперечити вашому власному досвіду, оскільки іноді ви бачите, як людей затягують у кролячі нори. Один починається з кліпу нешкідливого ведучого ток-шоу, потім їх скеровує до перегляду поміркований комік, потім вони дивляться розмову від альтернативного подкастера, потім вони отримують життєві поради від сумнівного вченого, тоді це маргінальні принципи іншого впливового суб’єкта, і незабаром вони спостерігають, як хтось обходить правила YouTube щодо ворожих висловлювань. Або, можливо, дослідження має рацію, і це не система рекомендацій, яка зганяє людей з крутих схилів.

Можливо, більш цікавим є те, що YouTube, здається, загалом схиляється до рекомендацій помірно консервативного контенту користувачам незалежно від їхньої політичної орієнтації, принаймні згідно з центром Нью-Йоркського університету.

Команда не зовсім впевнена, чому. «Хоча наші дані дозволяють нам виділити роль, яку відіграє алгоритм рекомендацій, ми не можемо зазирнути всередину чорного ящика. Без цієї ясності ми не можемо визначити, чи алгоритм працює ефективніше для консерваторів, тому що вони більш вимогливі до ідеологічно конгруентного змісту, ніж ліберали, чи з якоїсь іншої причини», — написали вони в статті.

Цілком можливо, що праві частіше переглядають правий контент, а ліві частіше переглядають різноманітний контент – те, з чим вони згодні, і те, чим вони обурено діляться, – або просто є більш консервативні відео, ніж ліберальні на YouTube. Рекомендації YouTube можуть бути зміщені праворуч, щоб відобразити бібліотеку відео, задовольнити попит аудиторії та підвищити таку бажану залученість.

Подібний ефект спостерігався і в Twitter. Його алгоритм рекомендацій має тенденцію до посилити дописи від правих політиків і новинних видань більше, ніж від лівих. Політологи з тієї ж команди в Нью-Йоркському університеті раніше коментували це може бути тому, що консервативний контент, швидше за все, викличе більше обурення і, отже, призведе до більшого залучення.

Ми також, до речі, зазначали раніше, що це консервативна точка для розмови, що праві погляди регулярно несправедливо піддаються цензурі або приховуються в Інтернеті Big Tech. Це може бути тому, що консервативну політичну комунікацію сприймають і позначають як дезінформацію частіше ніж повідомлення опозиції.

Ніхто з YouTube чи Google не зміг відповісти на результати дослідження CSMP. ®

Часова мітка:

Більше від Реєстр