YouTube любит рекомендовать консервативные видеоролики независимо от ваших убеждений. PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

YouTube любит рекомендовать консервативные видео независимо от ваших убеждений

Алгоритм рекомендаций YouTube не только аккуратно заманивает зрителей в ловушку в мягких эхо-камерах, но и с большей вероятностью предложит видео консервативного толка независимо от вашей политической ориентации.

Это согласно Исследование из Центра социальных сетей и политики Нью-Йоркского университета (CSMP), который был отмечен в этом месяце Brookings.

Социальные сети живут и умирают благодаря своим рекомендательным алгоритмам: они предназначены для того, чтобы удерживать посетителей на сайтах и ​​в приложениях, снабжая их контентом, который удерживает их на крючке, и, если это стимулирует взаимодействие, — делиться ссылками с другими, комментировать, подписываться, голосовать и т. д. – тем лучше. Спорный или сногсшибательный материал идеально подходит для этого, так как он, вероятно, вызовет больше репостов и комментариев и, таким образом, увлечет больше людей.

Таким образом, эти каналы персонализируются для каждого пользователя сети в зависимости от его интересов; это важно, чтобы привлечь и запереть их. Эхо-камеры формируются там, где люди публикуют и делятся материалами, в которых у них есть общий интерес, и игнорируют все, что противоречит этим принципам и отношениям. Это приводит к положительной обратной связи, связанной с взаимодействием внутри группы, укрепляя убеждения и увеличивая время — и количество просмотров рекламы — в приложении или на веб-сайте.

Вот несколько вопросов. До какого уровня эти алгоритмы рекомендаций питают эти эхо-камеры? Подталкивают ли алгоритмы пользователей по все более узким идеологическим путям, радикализируя пользователей сети по мере того, как они все глубже погружаются в кроличью нору онлайн? Может ли программное обеспечение превратить людей в экстремистов? Есть ли системная предвзятость в рекомендациях?

Чтобы решить эту проблему, группа исследователей из CSMP изучила влияние рекомендаций YouTube, попросив 1,063 взрослых американцев, набранных с помощью рекламы в Facebook, установить расширение для браузера, которое отслеживало их опыт просмотра веб-сайта, принадлежащего Google.

Это толкает пользователей во все более узкие идеологические диапазоны контента, что можно назвать свидетельством (очень) умеренной идеологической эхо-камеры.

Участников попросили выбрать одно начальное видео YouTube из 25, состоящее из смеси политических и неполитических материалов, а затем следовать установленному пути через видео, которые YouTube рекомендовал им посмотреть следующими.

Пользователям сети было сказано всегда нажимать на первую, вторую, третью, четвертую или пятую рекомендацию каждый раз; слот рекомендации был выбран случайным образом для каждого человека с самого начала. Каждый участник просматривал предлагаемые видео на YouTube по 20 раз в период с октября по декабрь 2020 года.

Расширение регистрировало, какие видео YouTube рекомендовал на каждом этапе, и, следовательно, видео, которые были просмотрены. Команда оценила идеологическую точку зрения каждого видео в зависимости от того, было ли оно более консервативным или либеральным, чтобы измерить влияние эхо-камер и любых скрытых предубеждений в системе, а также посмотреть, рекомендовали ли зрителям все более экстремальный контент.

То, как была определена эта идеологическая оценка, имеет решающее значение для этого, поэтому мы на мгновение поверим, что она была надежной. Участники также были опрошены по их демографическим данным.

«Мы обнаружили, что алгоритм рекомендаций YouTube не ведет подавляющее большинство пользователей в экстремистские кроличьи норы, хотя и толкает пользователей во все более узкие идеологические диапазоны контента, что можно назвать свидетельством (очень) умеренной идеологической эхо-камеры», — говорится в сообщении. ученые раскрытый в отчете Брукингского института.

«Мы также обнаружили, что в среднем алгоритм рекомендаций YouTube уводит пользователей немного правее политического спектра, что, по нашему мнению, является новым открытием».

Алгоритм уводит пользователей немного правее политического спектра.

Аннотация их статьи ясно дает понять, что этот скачок вправо происходит «независимо от идеологии» зрителей YouTube.

Исследование показало, что пользователей подталкивали смотреть больше правых или левых СМИ, в зависимости от их отправной точки. Таким образом, рекомендации YouTube, по-видимому, немного расходятся вправо для консерваторов и влево для прогрессистов. Это изменение идеологической силы рекомендаций начиналось с малого и увеличивалось по мере того, как зритель следовал рекомендациям алгоритма. Другими словами, если вы (например) смотрели то, что считалось умеренно левым материалом, со временем ваши рекомендации будут смещаться влево, но очень незначительно и постепенно, согласно этому исследованию.

Таким образом, исследователи утверждают, что на YouTube существуют умеренные идеологические эхо-камеры. Это имело бы смысл для YouTube, так как это гарантирует, что зрители останутся вовлеченными и останутся привязанными к сайту. Примечательно, что практически нет никаких доказательств того, что зрители склоняются к более идеологически экстремальному контенту.

Это может противоречить вашему собственному опыту, так как иногда вы можете видеть, как людей затягивают в кроличью нору. Один начинается с клипа безобидного ведущего ток-шоу, затем умеренный комик подсказывает им немного посмотреть, затем они обнаруживают, что смотрят разговор альтернативного подкастера, затем получают жизненный совет от сомнительного ученого, затем это второстепенные принципы другого влиятельного лица, и вскоре они наблюдают, как кто-то обходит правила YouTube в отношении разжигания ненависти. Или, может быть, исследование верно, и это не двигатель рекомендаций, толкающий людей вниз по крутым склонам.

Возможно, более интересно то, что YouTube в целом склонен рекомендовать умеренно консервативный контент пользователям независимо от их политической ориентации, по крайней мере, по данным центра Нью-Йоркского университета.

Команда не совсем уверена, почему. «Хотя наши данные позволяют нам изолировать роль алгоритма рекомендаций, мы не можем заглянуть внутрь черного ящика. Без этой ясности мы не можем определить, работает ли алгоритм сильнее для консерваторов, потому что они более требовательны к идеологически конгруэнтному содержанию, чем либералы, или по какой-то другой причине», — написали они в статье.

Может случиться так, что правые с большей вероятностью будут постоянно смотреть правый контент, а левые с большей вероятностью просматривают более разнообразный контент — то, с чем они согласны, и то, чем они гневно делятся, — или что есть просто более консервативные видео, чем либеральные на ютубе. Рекомендации YouTube могут быть сдвинуты вправо, чтобы отражать видеотеку, удовлетворять спрос аудитории и стимулировать всегда желаемое участие.

Аналогичный эффект наблюдается и в Twitter. Его рекомендательный алгоритм имеет тенденцию повышать посты от правых политиков и новостных изданий больше, чем от левых. Политологи из той же команды в Нью-Йоркском университете ранее прокомментировал что это может быть связано с тем, что консервативный контент с большей вероятностью вызовет больше возмущения и, следовательно, приведет к большему взаимодействию.

Мы также, кстати, отмечали ранее, что это консервативный тезис о том, что правые взгляды регулярно подвергаются несправедливой цензуре или прячутся в Интернете со стороны Big Tech. Это может быть связано с тем, что консервативная политическая коммуникация воспринимается и помечается как дезинформация. чаще чем сообщения оппозиции.

Никто на YouTube или Google не смог ответить на результаты исследования CSMP. ®

Отметка времени:

Больше от Регистр