الگوریتم توصیه یوتیوب نه تنها بینندگان را به آرامی در اتاقهای پژواک ملایم به دام میاندازد، بلکه به احتمال زیاد ویدیوهایی با گرایش محافظهکارانه را بدون توجه به همسویی سیاسی شما پیشنهاد میکند.
این است که با توجه به مطالعه از مرکز رسانه های اجتماعی و سیاست دانشگاه نیویورک (CSMP) که این ماه توسط بروکینگز برجسته شد.
شبکههای اجتماعی با الگوریتمهای پیشنهادی خود زندگی میکنند و از بین میروند: آنها به گونهای طراحی شدهاند که بازدیدکنندگان را در سایتها و برنامهها با ارائه محتوایی که آنها را درگیر نگه میدارد، نگه دارند، و اگر این باعث افزایش تعامل شود - به اشتراکگذاری پیوندها با دیگران، نظر دادن، اشتراکگذاری، رأی مثبت و غیره - هر چه بهتر. مطالب بحث برانگیز یا شگفتانگیز برای این کار مناسب است، زیرا احتمالاً باعث ایجاد اشتراکگذاری و نظرات بیشتر میشود و در نتیجه افراد بیشتری را معتاد نگه میدارد.
بنابراین، این فیدها برای هر کاربر اینترنتی بر اساس علایق آنها شخصی سازی می شود. این برای ترسیم و قفل کردن آنها ضروری است. اتاقهای اکو در جایی شکل میگیرند که افراد مطالبی را که به آنها علاقه مشترک دارند پست میکنند و به اشتراک میگذارند و هر چیزی را مغایر با آن اصول و نگرشها نادیده میگیرند. این منجر به یک حلقه بازخورد مثبت از تعامل در گروه، تقویت باورها و افزایش زمان - و بازدید تبلیغات - در برنامه یا وب سایت می شود.
در اینجا چند سوال وجود دارد. این الگوریتم های توصیه تا چه سطحی به این اتاقک های پژواک کمک می کنند؟ آیا الگوریتمها کاربران را به سمت مسیرهای ایدئولوژیک باریک فزاینده سوق میدهند و کاربران اینترنتی را در حین ورود به سوراخ خرگوش آنلاین رادیکال میکنند؟ آیا نرم افزار می تواند مردم را به سمت افراط گرایی سوق دهد؟ آیا سوگیری سیستمیک در توصیه ها وجود دارد؟
برای مقابله با این موضوع، تیمی از محققان در CSMP با جذب 1,063 آمریکایی بزرگسال که از طریق تبلیغات فیس بوک استخدام شده بودند، برای نصب یک برنامه افزودنی مرورگر که تجربیات آنها در مرور وب سایت متعلق به Google را حفظ می کرد، تأثیرات توصیه های YouTube را مطالعه کردند.
کاربران را به سمت دامنههای ایدئولوژیک باریک فزایندهای از محتوا سوق میدهد، چیزی که میتوان آن را شواهدی از یک اتاق پژواک ایدئولوژیک (بسیار ملایم) نامید.
از شرکتکنندگان خواسته شد از بین ۲۵ ویدیوی YouTube که از ترکیبی از موضوعات سیاسی و غیرسیاسی تشکیل شده است، یکی را انتخاب کنند و سپس مسیر مشخصی را از طریق ویدیوهایی که یوتیوب به آنها توصیه میکند دنبال کنند.
به کاربران اینترنتی گفته شد که همیشه هر بار روی توصیه اول، دوم، سوم، چهارم یا پنجم کلیک کنند. اسلات توصیه از ابتدا به صورت تصادفی برای هر نفر انتخاب شد. این پیمایش از طریق ویدیوهای پیشنهادی YouTube، 20 بار توسط هر شرکتکننده، طی دورهای از اکتبر تا دسامبر 2020 تکرار شد.
برنامه افزودنی ویدیوهایی را که YouTube در هر مرحله توصیه میکرد و بنابراین ویدیوهایی را که تماشا میشد ثبت کرد. این تیم دیدگاه ایدئولوژیک هر ویدیو را بر اساس محافظهکار بودن یا لیبرال بودن آن، ارزیابی کرد تا تأثیر اتاقهای اکو و هرگونه سوگیری پنهان در سیستم را اندازهگیری کند و ببیند آیا به بینندگان محتوای شدیدتر توصیه میشود یا خیر.
نحوه تعیین آن نمره ایدئولوژیک برای این امر بسیار مهم است، بنابراین ما برای لحظه ای اعتماد خواهیم کرد که قوی بوده است. شرکت کنندگان همچنین در مورد مشخصات دموگرافیک آنها مورد بررسی قرار گرفتند.
"ما دریافتیم که الگوریتم توصیه یوتیوب اکثریت قریب به اتفاق کاربران را به سمت سوراخ های خرگوش افراطی هدایت نمی کند، اگرچه کاربران را به سمت دامنه های ایدئولوژیک باریک فزاینده ای از محتوا سوق می دهد، چیزی که می توانیم شواهدی از یک اتاق پژواک ایدئولوژیک (بسیار ملایم) بنامیم." دانشگاهیان افشا در گزارشی برای موسسه بروکینگز.
ما همچنین دریافتیم که به طور متوسط، الگوریتم توصیه یوتیوب، کاربران را اندکی به سمت راست طیف سیاسی می کشاند، که ما معتقدیم این یک یافته جدید است.
این الگوریتم کاربران را کمی به سمت راست طیف سیاسی می کشاند
چکیده مقاله آنها روشن می کند که این برآمدگی به راست "بدون توجه به ایدئولوژی" بینندگان یوتیوب اتفاق می افتد.
این مطالعه نشان داد که کاربران بسته به نقطه شروع آنها بیشتر به تماشای رسانه های راست یا چپ ترغیب می شوند. بنابراین به نظر می رسد توصیه های YouTube برای محافظه کاران کمی به سمت راست و برای مترقی ها به سمت چپ متفاوت است. این تغییر در قدرت ایدئولوژیکی توصیهها کم شروع شد و هر چه بیننده بیشتر از توصیههای الگوریتم پیروی کرد افزایش یافت. به عبارت دیگر، اگر (مثلاً) مطالبی را که به نظر می رسد در حد متوسط باقی مانده است تماشا کنید، با گذشت زمان توصیه های شما بیشتر به سمت چپ منحرف می شود، اما فقط بسیار اندک و به تدریج، طبق این مطالعه.
به گفته محققان، اتاقهای پژواک ایدئولوژیک ملایم در یوتیوب وجود دارد. این برای یوتیوب منطقی است، زیرا تضمین می کند که بینندگان درگیر می مانند و به سایت چسبیده می مانند. قابل توجه است که به نظر می رسد شواهد کمی وجود دارد که نشان دهد بینندگان در مسیری سریع به سمت محتوای افراطی ایدئولوژیک قرار می گیرند.
این ممکن است با تجربه خود شما مغایرت داشته باشد، زیرا گاهی اوقات می توانید ببینید که چگونه مردم به داخل سوراخ خرگوش کشیده می شوند. یکی با کلیپی از یک مجری برنامه گفتگوی بیضرر شروع میکند، سپس توسط یک کمدین متوسط هدایت میشود تا یک مکالمه را از یک پادکستر جایگزین تماشا کنند، سپس از یک دانشگاهی مشکوک توصیههای زندگی دریافت میکنند. پس از آن اینفلوئنسر دیگری اصول حاشیهای است، و خیلی زود، آنها در حال تماشای افرادی هستند که قوانین یوتیوب را در مورد سخنان مشوق نفرت پراکنده میکنند. یا شاید این مطالعه درست باشد، و موتور توصیه شده مردم را به سمت شیب های تند هدایت نمی کند.
شاید جالبتر این باشد که به نظر میرسد یوتیوب در مجموع تمایل دارد محتوای نسبتاً محافظه کارانه را به کاربران بدون توجه به گرایش سیاسی آنها توصیه کند، حداقل طبق گفته مرکز نیویورک.
تیم کاملاً مطمئن نیست که چرا. اگرچه دادههای ما به ما امکان میدهند نقشی را که الگوریتم توصیه بازی میکند جدا کنیم، نمیتوانیم داخل جعبه سیاه را بررسی کنیم. بدون این وضوح، نمیتوانیم تعیین کنیم که آیا این الگوریتم برای محافظهکاران قویتر عمل میکند، زیرا آنها نسبت به لیبرالها از نظر ایدئولوژیکی بیشتر مطالبه دارند یا به دلایل دیگری.»
ممکن است راستگرایان بهطور مداوم محتوای راستگرایان را تماشا کنند و چپگرایان محتوای متنوعتری را مشاهده کنند – مواردی که با آن موافق هستند و چیزهایی که عصبانی میشوند – یا اینکه ویدیوهای محافظهکارانهتری وجود دارد. لیبرال ها در یوتیوب توصیههای YouTube ممکن است به سمت راست کشیده شوند تا کتابخانه ویدیو را منعکس کنند، تقاضای مخاطبان را برآورده کنند و آن تعامل همیشه مطلوب را افزایش دهند.
اثر مشابهی در توییتر نیز مشاهده شده است. الگوریتم توصیه آن تمایل دارد تقویت پست ها از سیاستمداران و نشریات خبری جناح راست بیشتر از چپگرایان. دانشمندان علوم سیاسی از همان تیم در دانشگاه نیویورک قبلا نظر داده شده که ممکن است به این دلیل باشد که محتوای محافظه کارانه احتمال بیشتری دارد که خشم بیشتری ایجاد کند و در نتیجه منجر به تعامل بیشتر شود.
به هر حال، ما همچنین قبلاً خاطرنشان کردهایم که این یک بحث محافظهکارانه است که دیدگاههای راستگرا به طور معمول بهطور ناعادلانهای توسط Big Tech در اینترنت سانسور یا پنهان میشوند. این ممکن است به این دلیل باشد که ارتباطات سیاسی محافظه کارانه به عنوان اطلاعات نادرست تلقی می شود و علامت گذاری می شود اغلب از پیام مخالفان
هیچ کس در YouTube یا Google نتوانست به یافته های مطالعه CSMP پاسخ دهد. ®
- AI
- آی هنر
- مولد هنر ai
- ربات ai
- هوش مصنوعی
- گواهی هوش مصنوعی
- هوش مصنوعی در بانکداری
- ربات هوش مصنوعی
- ربات های هوش مصنوعی
- نرم افزار هوش مصنوعی
- بلاکچین
- کنفرانس بلاک چین ai
- coingenius
- هوش مصنوعی محاوره ای
- کنفرانس کریپتو ai
- دل-ه
- یادگیری عمیق
- گوگل ai
- فراگیری ماشین
- افلاطون
- افلاطون آی
- هوش داده افلاطون
- بازی افلاطون
- PlatoData
- بازی پلاتو
- مقیاس Ai
- نحو
- ثبت نام
- زفیرنت