YouTube بدون در نظر گرفتن اعتقادات شما، ویدیوهای محافظه کارانه را توصیه می کند. جستجوی عمودی Ai.

YouTube بدون در نظر گرفتن اعتقادات شما، ویدیوهای محافظه کارانه را توصیه می کند

الگوریتم توصیه یوتیوب نه تنها بینندگان را به آرامی در اتاق‌های پژواک ملایم به دام می‌اندازد، بلکه به احتمال زیاد ویدیوهایی با گرایش محافظه‌کارانه را بدون توجه به همسویی سیاسی شما پیشنهاد می‌کند.

این است که با توجه به مطالعه از مرکز رسانه های اجتماعی و سیاست دانشگاه نیویورک (CSMP) که این ماه توسط بروکینگز برجسته شد.

شبکه‌های اجتماعی با الگوریتم‌های پیشنهادی خود زندگی می‌کنند و از بین می‌روند: آن‌ها به گونه‌ای طراحی شده‌اند که بازدیدکنندگان را در سایت‌ها و برنامه‌ها با ارائه محتوایی که آنها را درگیر نگه می‌دارد، نگه دارند، و اگر این باعث افزایش تعامل شود - به اشتراک‌گذاری پیوندها با دیگران، نظر دادن، اشتراک‌گذاری، رأی مثبت و غیره - هر چه بهتر. مطالب بحث برانگیز یا شگفت‌انگیز برای این کار مناسب است، زیرا احتمالاً باعث ایجاد اشتراک‌گذاری و نظرات بیشتر می‌شود و در نتیجه افراد بیشتری را معتاد نگه می‌دارد.

بنابراین، این فیدها برای هر کاربر اینترنتی بر اساس علایق آنها شخصی سازی می شود. این برای ترسیم و قفل کردن آنها ضروری است. اتاق‌های اکو در جایی شکل می‌گیرند که افراد مطالبی را که به آنها علاقه مشترک دارند پست می‌کنند و به اشتراک می‌گذارند و هر چیزی را مغایر با آن اصول و نگرش‌ها نادیده می‌گیرند. این منجر به یک حلقه بازخورد مثبت از تعامل در گروه، تقویت باورها و افزایش زمان - و بازدید تبلیغات - در برنامه یا وب سایت می شود.

در اینجا چند سوال وجود دارد. این الگوریتم های توصیه تا چه سطحی به این اتاقک های پژواک کمک می کنند؟ آیا الگوریتم‌ها کاربران را به سمت مسیرهای ایدئولوژیک باریک فزاینده سوق می‌دهند و کاربران اینترنتی را در حین ورود به سوراخ خرگوش آنلاین رادیکال می‌کنند؟ آیا نرم افزار می تواند مردم را به سمت افراط گرایی سوق دهد؟ آیا سوگیری سیستمیک در توصیه ها وجود دارد؟

برای مقابله با این موضوع، تیمی از محققان در CSMP با جذب 1,063 آمریکایی بزرگسال که از طریق تبلیغات فیس بوک استخدام شده بودند، برای نصب یک برنامه افزودنی مرورگر که تجربیات آنها در مرور وب سایت متعلق به Google را حفظ می کرد، تأثیرات توصیه های YouTube را مطالعه کردند.

کاربران را به سمت دامنه‌های ایدئولوژیک باریک فزاینده‌ای از محتوا سوق می‌دهد، چیزی که می‌توان آن را شواهدی از یک اتاق پژواک ایدئولوژیک (بسیار ملایم) نامید.

از شرکت‌کنندگان خواسته شد از بین ۲۵ ویدیوی YouTube که از ترکیبی از موضوعات سیاسی و غیرسیاسی تشکیل شده است، یکی را انتخاب کنند و سپس مسیر مشخصی را از طریق ویدیوهایی که یوتیوب به آنها توصیه می‌کند دنبال کنند.

به کاربران اینترنتی گفته شد که همیشه هر بار روی توصیه اول، دوم، سوم، چهارم یا پنجم کلیک کنند. اسلات توصیه از ابتدا به صورت تصادفی برای هر نفر انتخاب شد. این پیمایش از طریق ویدیوهای پیشنهادی YouTube، 20 بار توسط هر شرکت‌کننده، طی دوره‌ای از اکتبر تا دسامبر 2020 تکرار شد.

برنامه افزودنی ویدیوهایی را که YouTube در هر مرحله توصیه می‌کرد و بنابراین ویدیوهایی را که تماشا می‌شد ثبت کرد. این تیم دیدگاه ایدئولوژیک هر ویدیو را بر اساس محافظه‌کار بودن یا لیبرال بودن آن، ارزیابی کرد تا تأثیر اتاق‌های اکو و هرگونه سوگیری پنهان در سیستم را اندازه‌گیری کند و ببیند آیا به بینندگان محتوای شدیدتر توصیه می‌شود یا خیر.

نحوه تعیین آن نمره ایدئولوژیک برای این امر بسیار مهم است، بنابراین ما برای لحظه ای اعتماد خواهیم کرد که قوی بوده است. شرکت کنندگان همچنین در مورد مشخصات دموگرافیک آنها مورد بررسی قرار گرفتند.

"ما دریافتیم که الگوریتم توصیه یوتیوب اکثریت قریب به اتفاق کاربران را به سمت سوراخ های خرگوش افراطی هدایت نمی کند، اگرچه کاربران را به سمت دامنه های ایدئولوژیک باریک فزاینده ای از محتوا سوق می دهد، چیزی که می توانیم شواهدی از یک اتاق پژواک ایدئولوژیک (بسیار ملایم) بنامیم." دانشگاهیان افشا در گزارشی برای موسسه بروکینگز.

ما همچنین دریافتیم که به طور متوسط، الگوریتم توصیه یوتیوب، کاربران را اندکی به سمت راست طیف سیاسی می کشاند، که ما معتقدیم این یک یافته جدید است.

این الگوریتم کاربران را کمی به سمت راست طیف سیاسی می کشاند

چکیده مقاله آنها روشن می کند که این برآمدگی به راست "بدون توجه به ایدئولوژی" بینندگان یوتیوب اتفاق می افتد.

این مطالعه نشان داد که کاربران بسته به نقطه شروع آنها بیشتر به تماشای رسانه های راست یا چپ ترغیب می شوند. بنابراین به نظر می رسد توصیه های YouTube برای محافظه کاران کمی به سمت راست و برای مترقی ها به سمت چپ متفاوت است. این تغییر در قدرت ایدئولوژیکی توصیه‌ها کم شروع شد و هر چه بیننده بیشتر از توصیه‌های الگوریتم پیروی کرد افزایش یافت. به عبارت دیگر، اگر (مثلاً) مطالبی را که به نظر می رسد در حد متوسط ​​باقی مانده است تماشا کنید، با گذشت زمان توصیه های شما بیشتر به سمت چپ منحرف می شود، اما فقط بسیار اندک و به تدریج، طبق این مطالعه.

به گفته محققان، اتاق‌های پژواک ایدئولوژیک ملایم در یوتیوب وجود دارد. این برای یوتیوب منطقی است، زیرا تضمین می کند که بینندگان درگیر می مانند و به سایت چسبیده می مانند. قابل توجه است که به نظر می رسد شواهد کمی وجود دارد که نشان دهد بینندگان در مسیری سریع به سمت محتوای افراطی ایدئولوژیک قرار می گیرند.

این ممکن است با تجربه خود شما مغایرت داشته باشد، زیرا گاهی اوقات می توانید ببینید که چگونه مردم به داخل سوراخ خرگوش کشیده می شوند. یکی با کلیپی از یک مجری برنامه گفتگوی بی‌ضرر شروع می‌کند، سپس توسط یک کمدین متوسط ​​هدایت می‌شود تا یک مکالمه را از یک پادکستر جایگزین تماشا کنند، سپس از یک دانشگاهی مشکوک توصیه‌های زندگی دریافت می‌کنند. پس از آن اینفلوئنسر دیگری اصول حاشیه‌ای است، و خیلی زود، آن‌ها در حال تماشای افرادی هستند که قوانین یوتیوب را در مورد سخنان مشوق نفرت پراکنده می‌کنند. یا شاید این مطالعه درست باشد، و موتور توصیه شده مردم را به سمت شیب های تند هدایت نمی کند.

شاید جالب‌تر این باشد که به نظر می‌رسد یوتیوب در مجموع تمایل دارد محتوای نسبتاً محافظه کارانه را به کاربران بدون توجه به گرایش سیاسی آن‌ها توصیه کند، حداقل طبق گفته مرکز نیویورک.

تیم کاملاً مطمئن نیست که چرا. اگرچه داده‌های ما به ما امکان می‌دهند نقشی را که الگوریتم توصیه بازی می‌کند جدا کنیم، نمی‌توانیم داخل جعبه سیاه را بررسی کنیم. بدون این وضوح، نمی‌توانیم تعیین کنیم که آیا این الگوریتم برای محافظه‌کاران قوی‌تر عمل می‌کند، زیرا آن‌ها نسبت به لیبرال‌ها از نظر ایدئولوژیکی بیشتر مطالبه دارند یا به دلایل دیگری.»

ممکن است راست‌گرایان به‌طور مداوم محتوای راست‌گرایان را تماشا کنند و چپ‌گرایان محتوای متنوع‌تری را مشاهده کنند – مواردی که با آن موافق هستند و چیزهایی که عصبانی می‌شوند – یا اینکه ویدیوهای محافظه‌کارانه‌تری وجود دارد. لیبرال ها در یوتیوب توصیه‌های YouTube ممکن است به سمت راست کشیده شوند تا کتابخانه ویدیو را منعکس کنند، تقاضای مخاطبان را برآورده کنند و آن تعامل همیشه مطلوب را افزایش دهند.

اثر مشابهی در توییتر نیز مشاهده شده است. الگوریتم توصیه آن تمایل دارد تقویت پست ها از سیاستمداران و نشریات خبری جناح راست بیشتر از چپ‌گرایان. دانشمندان علوم سیاسی از همان تیم در دانشگاه نیویورک قبلا نظر داده شده که ممکن است به این دلیل باشد که محتوای محافظه کارانه احتمال بیشتری دارد که خشم بیشتری ایجاد کند و در نتیجه منجر به تعامل بیشتر شود.

به هر حال، ما همچنین قبلاً خاطرنشان کرده‌ایم که این یک بحث محافظه‌کارانه است که دیدگاه‌های راست‌گرا به طور معمول به‌طور ناعادلانه‌ای توسط Big Tech در اینترنت سانسور یا پنهان می‌شوند. این ممکن است به این دلیل باشد که ارتباطات سیاسی محافظه کارانه به عنوان اطلاعات نادرست تلقی می شود و علامت گذاری می شود اغلب از پیام مخالفان

هیچ کس در YouTube یا Google نتوانست به یافته های مطالعه CSMP پاسخ دهد. ®

تمبر زمان:

بیشتر از ثبت نام