YouTube suka merekomendasikan video konservatif terlepas dari keyakinan Anda, PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

YouTube suka merekomendasikan video konservatif terlepas dari keyakinan Anda

Algoritme rekomendasi YouTube tidak hanya dengan lembut menjebak pemirsa di ruang gema ringan, tetapi lebih cenderung menyarankan video yang condong ke konservatif terlepas dari keberpihakan politik Anda.

Itu menurut a belajar dari Pusat Media Sosial dan Politik (CSMP) Universitas New York yang disorot bulan ini oleh Brookings.

Jejaring sosial hidup dan mati dengan algoritme rekomendasi mereka: mereka dirancang untuk menjaga pengunjung di situs dan aplikasi dengan memberi mereka konten yang membuat mereka ketagihan, dan jika itu mendorong keterlibatan โ€“ berbagi tautan dengan orang lain, berkomentar, berlangganan, upvoting, dll - semua lebih baik. Materi kontroversial atau mengejutkan sangat cocok untuk ini, karena kemungkinan akan memicu lebih banyak share dan komentar, dan dengan demikian membuat lebih banyak orang ketagihan.

Umpan ini dengan demikian dipersonalisasi untuk setiap netizen berdasarkan minat mereka; itu penting untuk menarik dan mengunci mereka. Ruang gema terbentuk di mana orang memposting dan berbagi hal-hal yang mereka minati bersama, dan mengabaikan apa pun yang bertentangan dengan prinsip dan sikap tersebut. Ini mengarah pada umpan balik positif dari keterlibatan dalam grup, memperkuat keyakinan dan meningkatkan waktu โ€“ dan tampilan iklan โ€“ dalam aplikasi atau situs web.

Berikut adalah beberapa pertanyaan. Sampai tingkat apa algoritme rekomendasi ini mengisi ruang gema ini? Apakah algoritme mendorong pengguna ke jalur ideologis yang semakin sempit, meradikalisasi netizen saat mereka masuk lebih dalam ke lubang kelinci online? Bisakah perangkat lunak mengubah orang menjadi ekstremisme? Apakah ada bias sistemik dalam rekomendasi?

Untuk mengatasi masalah ini, tim peneliti di CSMP mempelajari efek rekomendasi YouTube dengan meminta 1,063 orang dewasa Amerika, yang direkrut melalui iklan Facebook, untuk memasang ekstensi browser yang mengawasi pengalaman mereka menjelajahi situs web milik Google.

Itu mendorong pengguna ke dalam rentang konten ideologis yang semakin sempit dalam apa yang kita sebut bukti ruang gema ideologis (sangat) ringan

Para peserta diminta untuk memilih satu video YouTube awal dari 25, terdiri dari campuran hal-hal politik dan non-politik, dan kemudian mengikuti jalur yang ditetapkan melalui video yang direkomendasikan YouTube untuk mereka tonton selanjutnya.

Netizen diberitahu untuk selalu mengklik rekomendasi pertama, kedua, ketiga, keempat, atau kelima setiap kali; slot rekomendasi dipilih secara acak per orang dari awal. Penjelajahan melalui video yang disarankan YouTube ini diulang 20 kali oleh setiap peserta, selama periode Oktober hingga Desember 2020.

Ekstensi mencatat video mana yang direkomendasikan YouTube di setiap tahap, dan dengan demikian video yang ditonton. Tim menilai pandangan ideologis setiap video, berdasarkan apakah itu lebih konservatif atau cenderung liberal, untuk mengukur efek ruang gema dan bias laten dalam sistem, dan untuk melihat apakah pemirsa direkomendasikan konten yang semakin ekstrem.

Bagaimana skor ideologis itu ditentukan agak penting untuk ini, jadi kami akan percaya sejenak bahwa itu kuat. Para peserta juga disurvei tentang demografi mereka.

โ€œKami menemukan bahwa algoritme rekomendasi YouTube tidak mengarahkan sebagian besar pengguna ke lubang kelinci ekstremis, meskipun itu mendorong pengguna ke dalam rentang konten ideologis yang semakin sempit dalam apa yang mungkin kami sebut bukti ruang gema ideologis (sangat) ringan,โ€ akademisi diungkapkan dalam laporan untuk Brookings Institution.

โ€œKami juga menemukan bahwa, rata-rata, algoritme rekomendasi YouTube menarik pengguna sedikit ke kanan dari spektrum politik, yang kami yakini sebagai temuan baru.โ€

Algoritme menarik pengguna sedikit ke kanan spektrum politik

Abstrak makalah mereka menjelaskan bahwa benjolan ke kanan ini terjadi "terlepas dari ideologi" pemirsa YouTube.

Studi ini menemukan bahwa pengguna didorong untuk menonton lebih banyak media sayap kanan atau kiri, tergantung pada titik awal mereka. Rekomendasi YouTube akan tampak sedikit menyimpang ke kanan untuk konservatif dan kiri untuk progresif. Perubahan dalam kekuatan ideologis dari rekomendasi ini mulai kecil dan meningkat semakin lama pemirsa mengikuti rekomendasi algoritme. Dengan kata lain, jika Anda (misalnya) menonton apa yang dianggap sebagai materi yang cukup tertinggal, seiring waktu rekomendasi Anda akan lebih banyak ke kiri, tetapi hanya sangat sedikit dan bertahap, menurut penelitian ini.

Ruang gema ideologis ringan dengan demikian ada di YouTube, para peneliti berpendapat. Itu masuk akal untuk YouTube, karena memastikan pemirsa tetap terlibat dan tetap terpaku pada situs. Khususnya, tampaknya hanya ada sedikit atau tidak ada bukti bahwa pemirsa ditempatkan di jalur cepat ke konten yang lebih ekstrem secara ideologis.

Itu mungkin bertentangan dengan pengalaman Anda sendiri, karena kadang-kadang Anda dapat melihat bagaimana orang ditarik ke dalam lubang kelinci. Satu dimulai dengan klip pembawa acara talk show yang tidak berbahaya, selanjutnya mereka diarahkan untuk menonton sedikit oleh komedian moderat, kemudian mereka mendapati diri mereka menonton percakapan dari podcaster alternatif, kemudian mereka mendapatkan nasihat hidup dari akademisi yang dipertanyakan, kemudian itu adalah prinsip pinggiran oleh influencer lain, dan tak lama kemudian, mereka melihat seseorang yang melanggar aturan YouTube tentang ujaran kebencian. Atau mungkin studinya benar, dan itu bukan mesin rekomendasi yang mendorong orang menuruni lereng curam.

Yang lebih menarik, mungkin, adalah bahwa YouTube tampaknya secara keseluruhan cenderung merekomendasikan konten yang cukup konservatif kepada pengguna terlepas dari orientasi politik mereka, setidaknya menurut pusat NYU.

Tim tidak yakin mengapa. โ€œMeskipun data kami memungkinkan kami untuk mengisolasi peran yang dimainkan oleh algoritme rekomendasi, kami tidak dapat mengintip ke dalam kotak hitam. Tanpa kejelasan ini, kami tidak dapat menentukan apakah algoritme beroperasi lebih kuat untuk kaum konservatif karena mereka lebih menuntut konten yang kongruen secara ideologis daripada kaum liberal, atau karena alasan lain, โ€tulis mereka di koran.

Mungkin orang sayap kanan lebih cenderung menonton konten sayap kanan secara konsisten dan orang sayap kiri lebih cenderung melihat konten yang lebih beragam โ€“ hal-hal yang mereka setujui dan hal-hal yang mereka sukai โ€“ atau bahwa ada video yang lebih konservatif daripada yang liberal di YouTube. Rekomendasi YouTube dapat ditarik ke kanan untuk mencerminkan perpustakaan video, memenuhi permintaan pemirsa, dan meningkatkan keterlibatan yang selalu diinginkan.

Efek serupa juga telah diamati di Twitter. Algoritma rekomendasinya cenderung meningkatkan posting dari politisi sayap kanan dan publikasi berita lebih dari yang sayap kiri. Ilmuwan politik dari tim yang sama di NYU sebelumnya berkomentar bahwa itu mungkin karena konten konservatif lebih cenderung menghasilkan lebih banyak kemarahan dan, oleh karena itu, mengarah pada lebih banyak keterlibatan.

Omong-omong, kami juga telah mencatat sebelumnya bahwa ini adalah poin pembicaraan konservatif bahwa pandangan sayap kanan secara rutin disensor atau disembunyikan secara tidak adil di internet oleh Big Tech. Itu mungkin karena komunikasi politik konservatif dilihat dan ditandai sebagai informasi yang salah lebih sering daripada pesan oposisi.

Tidak seorang pun di YouTube atau Google dapat menanggapi temuan studi CSMP. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran