يحب YouTube التوصية بمقاطع الفيديو المحافظة بغض النظر عن معتقداتك PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

يحب YouTube التوصية بمقاطع الفيديو المحافظة بغض النظر عن معتقداتك

لا تحبس خوارزمية توصيات YouTube المشاهدين برفق في غرف صدى معتدلة فحسب ، بل إنها تقترح على الأرجح مقاطع فيديو ذات ميول محافظة بغض النظر عن مواءمتك السياسية.

هذا وفقا ل دراسة من مركز الإعلام الاجتماعي والسياسة بجامعة نيويورك (CSMP) الذي سلط الضوء عليه معهد بروكينغز هذا الشهر.

تعيش الشبكات الاجتماعية وتموت من خلال خوارزميات التوصية الخاصة بها: فهي مصممة لإبقاء الزوار على المواقع والتطبيقات من خلال تزويدهم بالمحتوى الذي يجعلهم مرتبطين ، وإذا أدى ذلك إلى زيادة المشاركة - مشاركة الروابط مع الآخرين ، والتعليق ، والاشتراك ، والتصويت ، إلخ. - كل ما هو أفضل. تعتبر المواد المثيرة للجدل أو التي تثير الذهن مثالية لهذا ، حيث من المحتمل أن تثير المزيد من المشاركات والتعليقات ، وبالتالي تجعل المزيد من الأشخاص مدمنين.

وبالتالي يتم تخصيص هذه الخلاصات لكل مستخدم على أساس اهتماماته ؛ هذا ضروري لرسمها وحبسها. تتشكل غرف الصدى حيث ينشر الأشخاص ويشاركون الأشياء التي لديهم مصلحة مشتركة فيها ، ويتجاهلون أي شيء يتعارض مع تلك المبادئ والمواقف. يؤدي هذا إلى حلقة ردود فعل إيجابية من المشاركة داخل المجموعة ، مما يعزز المعتقدات ويزيد من الوقت - ومرات مشاهدة الإعلان - داخل التطبيق أو موقع الويب.

إليك بعض الأسئلة. إلى أي مستوى تغذي خوارزميات التوصيات هذه غرف الصدى؟ هل تدفع الخوارزميات المستخدمين إلى مسارات أيديولوجية ضيقة بشكل متزايد ، مما يؤدي إلى تطرف مستخدمي الإنترنت عندما يتعمقون في حفرة أرنب على الإنترنت؟ هل يمكن للبرمجيات أن تحول الناس إلى التطرف؟ هل هناك تحيز منهجي في التوصيات؟

لمعالجة هذا الموضوع ، درس فريق من الباحثين في CSMP تأثيرات توصيات YouTube من خلال الحصول على 1,063 أمريكيًا بالغًا ، تم تجنيدهم عبر إعلانات Facebook ، لتثبيت ملحق متصفح يحتفظ بعلامات تبويب على تجربتهم في تصفح موقع الويب المملوك لشركة Google.

إنه يدفع المستخدمين إلى نطاقات إيديولوجية ضيقة بشكل متزايد من المحتوى في ما يمكن أن نسميه دليلًا على غرفة صدى إيديولوجي معتدلة (جدًا)

طُلب من المشاركين اختيار مقطع فيديو واحد على YouTube من أصل 25 ، يتكون من مزيج من العناصر السياسية وغير السياسية ، ثم اتباع مسار محدد من خلال مقاطع الفيديو التي أوصى YouTube بمشاهدتها بعد ذلك.

طُلب من مستخدمي الإنترنت أن ينقروا دائمًا على التوصية الأولى أو الثانية أو الثالثة أو الرابعة أو الخامسة في كل مرة ؛ تم اختيار خانة التوصية بشكل عشوائي لكل شخص من البداية. تم تكرار هذا الاجتياز عبر مقاطع الفيديو المقترحة على YouTube 20 مرة من قبل كل مشارك ، على مدار فترة من أكتوبر إلى ديسمبر 2020.

قام الامتداد بتسجيل مقاطع الفيديو التي أوصى بها YouTube في كل مرحلة ، وبالتالي مقاطع الفيديو التي تمت مشاهدتها. سجل الفريق وجهة النظر الأيديولوجية لكل مقطع فيديو ، بناءً على ما إذا كان أكثر تحفظًا أو ميولًا ليبرالية ، لقياس تأثير غرف الصدى وأي تحيز كامن في النظام ، ولمعرفة ما إذا كان يُنصح المشاهدين بمحتوى أكثر تطرفًا بشكل متزايد.

إن كيفية تحديد هذه النتيجة الأيديولوجية أمر حاسم نوعًا ما في هذا الأمر ، لذلك سنثق للحظة أنها كانت قوية. كما تم استطلاع آراء المشاركين حول التركيبة السكانية الخاصة بهم.

"وجدنا أن خوارزمية توصيات YouTube لا تقود الغالبية العظمى من المستخدمين إلى جحور الأرانب المتطرفة ، على الرغم من أنها تدفع المستخدمين إلى نطاقات إيديولوجية ضيقة بشكل متزايد من المحتوى في ما يمكن أن نطلق عليه دليلًا على غرفة صدى إيديولوجية (شديدة) معتدلة ،" الأكاديميين كشف في تقرير لمؤسسة بروكينغز.

"وجدنا أيضًا ، في المتوسط ​​، أن خوارزمية توصيات YouTube تجذب المستخدمين قليلاً إلى يمين الطيف السياسي ، وهو ما نعتقد أنه اكتشاف جديد."

تسحب الخوارزمية المستخدمين قليلاً إلى يمين الطيف السياسي

يوضح ملخص ورقتهم أن هذا النتوء إلى اليمين يحدث "بغض النظر عن أيديولوجية" مشاهدي YouTube.

وجدت الدراسة أنه تم دفع المستخدمين إلى مشاهدة المزيد من الوسائط اليمينية أو اليسارية ، اعتمادًا على نقطة البداية. يبدو أن توصيات YouTube تتباعد قليلاً عن اليمين للمحافظين وتترك للتقدميين. بدأ هذا التغيير في القوة الأيديولوجية للتوصيات صغيرًا وزاد كلما اتبع المشاهد توصيات الخوارزمية. بعبارة أخرى ، إذا شاهدت (على سبيل المثال) ما اعتبر أنه مادة متروكة بشكل معتدل ، بمرور الوقت ستنحرف توصياتك أكثر إلى اليسار ، ولكن بشكل طفيف جدًا وتدريجي ، وفقًا لهذه الدراسة.

جادل الباحثون بوجود غرف صدى أيديولوجية معتدلة على موقع يوتيوب. قد يكون ذلك منطقيًا بالنسبة إلى YouTube ، لأنه يضمن بقاء المشاهدين على اتصال دائم بالموقع. والجدير بالذكر أنه يبدو أن هناك القليل من الأدلة أو لا يوجد دليل على أن المشاهدين يسلكون مسارًا سريعًا للوصول إلى محتوى أكثر تطرفًا من الناحية الأيديولوجية.

قد يتعارض ذلك مع تجربتك الخاصة ، حيث يمكنك أحيانًا أن ترى كيف ينجذب الناس إلى جحور الأرانب. يبدأ المرء بمقطع من مضيف برنامج حواري غير ضار ، وبعد ذلك يتم توجيههم للمشاهدة قليلاً بواسطة ممثل كوميدي معتدل ، ثم يجدون أنفسهم يشاهدون محادثة من مشغل بودكاست بديل ، ثم يحصلون على نصائح حياتية من أكاديمي مشكوك فيه ، ثم إنها مبادئ هامشية من قبل مؤثر آخر ، وبعد فترة طويلة ، كانوا يشاهدون شخصًا يلتف حول قواعد YouTube بشأن الكلام الذي يحض على الكراهية. أو ربما كانت الدراسة صحيحة ، وليست محرك التوصية الذي يقود الناس إلى منحدرات شديدة الانحدار.

ربما يكون الأمر الأكثر إثارة للاهتمام هو أن YouTube يبدو أنه يميل بشكل عام نحو التوصية بمحتوى محافظ إلى حد ما للمستخدمين بغض النظر عن توجهاتهم السياسية ، على الأقل وفقًا لمركز جامعة نيويورك.

الفريق ليس متأكدًا تمامًا من السبب. "على الرغم من أن بياناتنا تسمح لنا بعزل الدور الذي تلعبه خوارزمية التوصية ، إلا أننا غير قادرين على النظر داخل الصندوق الأسود. بدون هذا الوضوح ، لا يمكننا تحديد ما إذا كانت الخوارزمية تعمل بقوة أكبر للمحافظين لأنهم يطلبون محتوى متوافقًا أيديولوجيًا أكثر من الليبراليين ، أو لسبب آخر "، كتبوا في الورقة.

قد يكون من المرجح أن اليمينيين يشاهدون باستمرار المحتوى اليميني وأن اليساريين أكثر عرضة لمشاهدة محتوى أكثر تنوعًا - الأشياء التي يتفقون معها والأشياء التي يشاركونها - أو أن هناك مقاطع فيديو أكثر تحفظًا من الليبرالية على موقع يوتيوب. قد يتم سحب توصيات YouTube إلى اليمين لتعكس مكتبة الفيديو وتلبية طلب الجمهور وزيادة المشاركة المرغوبة دائمًا.

كما لوحظ تأثير مماثل على تويتر. تميل خوارزمية توصياتها إلى تعزيز المشاركات من السياسيين اليمينيين ومنشورات الأخبار أكثر من اليساريين. علماء السياسة من نفس الفريق في جامعة نيويورك علق سابقا قد يكون ذلك بسبب أن المحتوى المحافظ من المرجح أن يؤدي إلى مزيد من الغضب وبالتالي يؤدي إلى مزيد من المشاركة.

بالمناسبة ، لاحظنا من قبل أنها نقطة نقاش محافظة تتمثل في أن وجهات النظر اليمينية تخضع بشكل روتيني للرقابة بشكل غير عادل أو يتم إخفاؤها بعيدًا على الإنترنت بواسطة Big Tech. قد يكون السبب في ذلك هو أن التواصل السياسي المحافظ يُنظر إليه ويتم تمييزه على أنه معلومات مضللة في كثير من الأحيان من رسائل المعارضة.

لم يتمكن أي شخص في YouTube أو Google من الرد على نتائج دراسة CSMP. ®

الطابع الزمني:

اكثر من السجل