YouTube, inançlarınız ne olursa olsun muhafazakar videolar önermeyi seviyor PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

YouTube, inançlarınız ne olursa olsun muhafazakar videolar önermeyi sever

YouTube'un öneri algoritması, izleyicileri yalnızca hafif yankı odalarına nazikçe hapsetmekle kalmaz, siyasi hizalamanızdan bağımsız olarak muhafazakar eğilimli videolar önerme olasılığı daha yüksektir.

Göre bir ders çalışma Brookings tarafından bu ay vurgulanan New York Üniversitesi Sosyal Medya ve Politika Merkezi'nden (CSMP).

Sosyal ağlar, tavsiye algoritmaları ile yaşar ve ölür: Ziyaretçileri sitelere ve uygulamalara bağlı tutan ve eğer bu etkileşimi artırırsa - başkalarıyla bağlantı paylaşmak, yorum yapmak, abone olmak, oy vermek vb. - çok daha iyi. Tartışmalı veya akıllara durgunluk veren materyaller bunun için mükemmeldir, çünkü daha fazla paylaşıma ve yoruma yol açabilir ve böylece daha fazla insanı bağımlı hale getirebilir.

Bu yayınlar böylece her netizen için ilgi alanlarına göre kişiselleştirilir; Bu, onları içeri çekmek ve kilitlemek için çok önemlidir. İnsanların ortak ilgi alanlarına sahip oldukları şeyleri yayınlayıp paylaştığı ve bu ilke ve tutumlara aykırı olan her şeyi görmezden geldiği yankı odaları oluşur. Bu, grup içinde olumlu bir geri bildirim döngüsüne yol açar, inançları güçlendirir ve uygulama veya web sitesinde zaman ve reklam görüntülemelerini artırır.

İşte bazı sorular. Bu öneri algoritmaları bu yankı odalarını hangi seviyeye kadar besliyor? Algoritmalar, kullanıcıları giderek daralan ideolojik yollara iterek, çevrimiçi bir tavşan deliğine daha derine indikçe netizenleri radikalleştiriyor mu? Yazılım insanları aşırılığa çevirebilir mi? Önerilerde sistematik bir önyargı var mı?

Bu konuyu ele almak için CSMP'deki bir araştırmacı ekibi, Facebook reklamları aracılığıyla işe alınan 1,063 yetişkin Amerikalıya, Google'ın sahip olduğu web sitesinde gezinme deneyimlerini takip eden bir tarayıcı uzantısı yüklemelerini sağlayarak YouTube önerilerinin etkilerini inceledi.

Kullanıcıları, (çok) ılımlı bir ideolojik yankı odasının kanıtı olarak adlandırabileceğimiz şeyde, giderek daralan ideolojik içerik aralıklarına itiyor.

Katılımcılardan, siyasi ve siyasi olmayan öğelerin bir karışımından oluşan 25 video arasından bir başlangıç ​​YouTube videosu seçmeleri ve ardından YouTube'un izlemelerini önerdiği videolarda belirli bir yol izlemeleri istendi.

Netizenlere her seferinde birinci, ikinci, üçüncü, dördüncü veya beşinci öneriye tıklamaları söylendi; Tavsiye aralığı başlangıçtan itibaren kişi başına rastgele seçildi. YouTube'un önerilen videolarındaki bu geçiş, Ekim'den Aralık 20'ye kadar olan dönemde her katılımcı tarafından 2020 kez tekrarlandı.

Uzantı, YouTube'un her aşamada hangi videoları önerdiğini ve dolayısıyla izlenen videoları kaydediyordu. Ekip, yankı odalarının etkisini ve sistemdeki gizli önyargıları ölçmek ve izleyicilere giderek daha aşırı içerik önerilip önerilmediğini görmek için her videonun ideolojik görünümünü, daha muhafazakar mı yoksa liberal eğilimli mi olduğuna göre puanladı.

Bu ideolojik puanın nasıl belirlendiği bunun için çok önemli, dolayısıyla bir an için bunun sağlam olduğuna güveneceğiz. Katılımcılara ayrıca demografik özellikleri hakkında da anket yapıldı.

"YouTube'un öneri algoritmasının, (çok) ılımlı bir ideolojik yankı odasının kanıtı olarak adlandırabileceğimiz şeyde kullanıcıları giderek daralan ideolojik içerik aralıklarına itmesine rağmen, kullanıcıların büyük çoğunluğunu aşırı uçtaki tavşan deliklerine yönlendirmediğini bulduk." akademisyenler açıklanması Brookings Enstitüsü için bir raporda.

"Ayrıca, ortalama olarak, YouTube tavsiye algoritmasının kullanıcıları yeni bir bulgu olduğuna inandığımız siyasi yelpazenin biraz sağına çektiğini görüyoruz."

Algoritma, kullanıcıları siyasi yelpazenin biraz sağına çekiyor

Makalelerinin özeti, bu sağa çarpmanın YouTube izleyicilerinin “ideolojisinden bağımsız olarak” gerçekleştiğini açıkça ortaya koyuyor.

Araştırma, kullanıcıların başlangıç ​​noktalarına bağlı olarak daha çok sağ veya sol medyayı izlemeye yönlendirildiğini ortaya çıkardı. Bu nedenle YouTube önerilerinin muhafazakarlar için sağa, ilericiler için sola doğru biraz farklılaştığı görülüyor. Önerilerin ideolojik gücündeki bu değişiklik küçük başladı ve izleyici algoritmanın önerilerini takip ettikçe arttı. Başka bir deyişle, bu çalışmaya göre, (örneğin) orta derecede sol içerik olarak kabul edilen bir içeriği izlediyseniz, zamanla önerileriniz sola doğru kayacaktır, ancak bu yalnızca çok hafif ve kademeli olarak olacaktır.

Araştırmacılar, YouTube'da hafif ideolojik yankı odalarının bulunduğunu öne sürdü. İzleyicilerin siteye bağlı kalmasını ve etkileşimde kalmasını sağladığından bu, YouTube için anlamlı olacaktır. Özellikle, izleyicilerin ideolojik olarak daha aşırı içeriğe doğru hızlı bir yola yönlendirildiğine dair çok az kanıt var veya hiç yok gibi görünüyor.

Bazen insanların nasıl tavşan deliklerine çekildiğini görebileceğiniz için, bu sizin kendi deneyiminizle çelişiyor olabilir. Biri zararsız bir talk-show sunucusunun bir klibiyle başlıyor, sonra ılımlı bir komedyen tarafından biraz izlemeye yönlendiriliyorlar, sonra kendilerini alternatif bir podcast yayıncısından bir sohbet izlerken buluyorlar, ardından şüpheli bir akademisyenden hayat tavsiyeleri alıyorlar. sonra bu başka bir etkileyicinin uç ilkeleridir ve çok geçmeden birisinin YouTube'un nefret söylemiyle ilgili kurallarını atladığını izliyorlar. Ya da belki çalışma doğrudur ve insanları dik yokuşlardan aşağıya sürükleyen tavsiye motoru değildir.

Belki de daha ilginç olan şey, YouTube'un, en azından NYU merkezine göre, siyasi yönelimleri ne olursa olsun kullanıcılara genel olarak orta derecede muhafazakar içerik önerme eğiliminde görünmesidir.

Takım neden olduğundan tam olarak emin değil. "Verilerimiz öneri algoritmasının oynadığı rolü izole etmemize izin verse de, kara kutunun içine bakamıyoruz. Bu netlik olmadan, liberallerden daha ideolojik olarak uyumlu içerik talep ettikleri için veya başka bir nedenden dolayı algoritmanın muhafazakarlar için daha güçlü bir şekilde çalışıp çalışmadığını belirleyemiyoruz” diye yazdılar.

Sağcıların sürekli olarak sağcı içerikleri izleme olasılıkları daha yüksek olabilir ve solcuların da daha çeşitli içerikleri (hemfikir oldukları şeyler ve öfkeyle paylaştıkları şeyler) görüntüleme olasılıkları daha yüksek olabilir ya da sadece daha muhafazakar videolar mevcut olabilir. YouTube'da liberal olanlar. YouTube önerileri, video kitaplığını yansıtmak, izleyici talebini karşılamak ve arzu edilen etkileşimi artırmak için sağa çekilebilir.

Benzer bir etki Twitter'da da gözlendi. Tavsiye algoritması, gönderileri artırmak sağcı politikacılardan ve haber yayınlarından solcu olanlardan daha fazla. NYU'da aynı ekipten siyaset bilimciler daha önce yorum yapıldı Bunun nedeni, muhafazakar içeriğin daha fazla öfke yaratması ve dolayısıyla daha fazla etkileşime yol açması olabilir.

Bu arada, sağcı görüşlerin Big Tech tarafından rutin olarak haksız bir şekilde sansürlendiğini veya internette gizlendiğinin muhafazakar bir konuşma noktası olduğunu daha önce belirtmiştik. Bunun nedeni, muhafazakar siyasi iletişimin yanlış bilgi olarak görülmesi ve işaretlenmesi olabilir. daha sık muhalefet mesajlarından daha fazla.

YouTube veya Google'dan hiç kimse CSMP çalışmasının bulgularına yanıt veremedi. ®

Zaman Damgası:

Den fazla Kayıt