YouTube אוהב להמליץ ​​על סרטונים שמרניים ללא קשר לאמונות שלך PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

YouTube אוהב להמליץ ​​על סרטונים שמרניים ללא קשר לאמונות שלך

אלגוריתם ההמלצות של יוטיוב לא רק לוכד בעדינות את הצופים בתאי הד מתונים, הוא סביר יותר להציע סרטונים בעלי נטייה שמרנית ללא קשר למערך הפוליטי שלך.

זה לפי א ללמוד מתוך המרכז למדיה חברתית ופוליטיקה של אוניברסיטת ניו יורק (CSMP) שהודגש החודש על ידי ברוקינגס.

רשתות חברתיות חיות ומתות לפי אלגוריתמי ההמלצה שלהן: הן נועדו לשמור על מבקרים באתרים ובאפליקציות על ידי הזנתם בתוכן שמשאיר אותם מחוברים, ואם זה מגביר את המעורבות - שיתוף קישורים עם אחרים, הערות, הרשמה, הצבעה כלפי מעלה וכו' - על אחת כמה וכמה. חומר שנוי במחלוקת או מעורר תודעה מושלם עבור זה, מכיוון שהוא צפוי לעורר יותר שיתופים והערות, ובכך לגרום ליותר אנשים להתמכר.

לפיכך הזנות אלו מותאמות אישית לכל משתמש ברשת על סמך תחומי העניין שלו; זה חיוני כדי לצייר ולנעול אותם. תאי הד נוצרים שבהם אנשים מפרסמים ומשתפים דברים שיש להם עניין משותף בהם, ומתעלמים מכל דבר המנוגד לעקרונות והעמדות הללו. זה מוביל ללולאת משוב חיובית של מעורבות בתוך הקבוצה, מחזקת את האמונות ומגדילה את הזמן - וצפיות במודעות - בתוך האפליקציה או האתר.

הנה כמה שאלות. לאיזו רמה אלגוריתמי ההמלצות הללו מתדלקים את תאי ההד הללו? האם האלגוריתמים דוחפים את המשתמשים למסלולים אידיאולוגיים צרים יותר ויותר, ומקצינים את הגולשים ברשת ככל שהם נכנסים עמוק יותר לתוך חור שפן מקוון? האם תוכנה יכולה להפוך אנשים לקיצוניות? האם יש הטיה מערכתית בהמלצות?

כדי להתמודד עם הנושא הזה, צוות חוקרים ב-CSMP חקר את ההשפעות של המלצות יוטיוב על ידי קבלת 1,063 אמריקאים בוגרים, שגויסו באמצעות מודעות פייסבוק, להתקין תוסף דפדפן שדאג לעקוב אחר חווית הגלישה שלהם באתר בבעלות גוגל.

זה כן דוחף משתמשים לטווחים אידיאולוגיים צרים יותר ויותר של תוכן במה שאנו יכולים לכנות עדות לתא הד אידיאולוגי מתון (מאוד)

המשתתפים התבקשו לבחור סרטון יוטיוב מתחיל אחד מתוך 25, המורכב מתערובת של דברים פוליטיים ולא פוליטיים, ולאחר מכן ללכת בדרך קבועה דרך הסרטונים ש-YouTube המליץ ​​להם לצפות בהמשך.

נאמר לגולשים ברשת ללחוץ תמיד על ההמלצה הראשונה, השנייה, השלישית, הרביעית או החמישית בכל פעם; משבצת ההמלצה נבחרה באקראי לאדם מההתחלה. מעבר זה דרך הסרטונים המוצעים של YouTube חזר על עצמו 20 פעמים על ידי כל משתתף, במהלך תקופה מאוקטובר עד דצמבר 2020.

התוסף רשם אילו סרטונים יוטיוב המליצה בכל שלב, וכך גם הסרטונים שנצפו. הצוות קלע את ההשקפה האידיאולוגית של כל וידאו, בהתבסס על האם הוא יותר שמרני או בעל נטייה ליברלית, כדי למדוד את ההשפעה של תאי הד וכל הטיה סמויה במערכת, ולראות אם ממליצים לצופים על תוכן קיצוני יותר ויותר.

האופן שבו הציון האידיאולוגי הזה נקבע הוא די מכריע לכך, אז נסמוך לרגע שהוא היה חזק. המשתתפים נסקרו גם על הדמוגרפיה שלהם.

"מצאנו שאלגוריתם ההמלצה של YouTube אינו מוביל את הרוב המכריע של המשתמשים אל חורי ארנב קיצוניים, למרות שהוא דוחף משתמשים לטווחים אידיאולוגיים צרים יותר ויותר של תוכן במה שאנו יכולים לכנות עדות לתא הד אידיאולוגי מתון (מאוד)". אנשי אקדמיה ייחשף בדוח עבור מכון ברוקינגס.

"אנחנו גם מגלים שבממוצע, אלגוריתם ההמלצות של YouTube מושך משתמשים מעט ימינה של הקשת הפוליטית, שלדעתנו הוא ממצא חדשני".

האלגוריתם מושך את המשתמשים מעט לימין הקשת הפוליטית

התקציר של המאמר שלהם מבהיר שהבליטה הזו ימינה מתרחשת "ללא קשר לאידיאולוגיה" של צופי יוטיוב.

המחקר מצא שמשתמשים נדחפו לצפות יותר במדיה ימנית או שמאלנית, בהתאם לנקודת המוצא שלהם. נראה כי המלצות יוטיוב מתפצלות מעט ימינה עבור השמרנים ושמאלה עבור הפרוגרסיביים. שינוי זה בחוזק האידיאולוגי של ההמלצות התחיל בקטן והתגבר ככל שהצופה עקב אחרי המלצות האלגוריתם. במילים אחרות, אם (לדוגמה) צפיתם במה שנחשב לחומר שנשאר במידה מתונה, עם הזמן ההמלצות שלכם יסחפו יותר שמאלה, אבל רק מעט מאוד ובהדרגה, לפי מחקר זה.

לפיכך קיימים תאי הד אידיאולוגיים מתונים ביוטיוב, טענו החוקרים. זה יהיה הגיוני עבור YouTube, מכיוון שהוא מבטיח שהצופים יישארו מעורבים ויישארו דבוקים לאתר. יש לציין כי נראה שיש מעט עד אין ראיות לכך שהצופים עוברים במסלול מהיר לתוכן קיצוני יותר מבחינה אידיאולוגית.

זה עשוי להיות בסתירה לניסיון שלך, מכיוון שלפעמים אתה יכול לראות איך אנשים נמשכים למטה לתוך חורי ארנב. אחד מתחיל עם קליפ של מנחה תוכנית אירוח לא מזיק, אחר כך הם מנווטים לצפות קצת על ידי קומיקאי מתון, ואז הם מוצאים את עצמם צופים בשיחה מפודקאסט אלטרנטיבי, ואז הם מקבלים עצות לחיים מאקדמאי מפוקפק, אז זה עקרונות שוליים של משפיע אחר, ועד מהרה הם צופים במישהו עוקף את חוקי YouTube בנושא דברי שטנה. או אולי המחקר צודק, וזה לא מנוע ההמלצה שמסיע אנשים במדרונות תלולים.

מה שמעניין יותר, אולי, הוא שנראה ש-YouTube נוטה באופן כללי להמלצה על תוכן שמרני במידה בינונית למשתמשים ללא קשר לאוריינטציה הפוליטית שלהם, לפחות לפי מרכז NYU.

הצוות לא ממש בטוח למה. "למרות שהנתונים שלנו מאפשרים לנו לבודד את התפקיד שמילא אלגוריתם ההמלצות, איננו מסוגלים להציץ בתוך הקופסה השחורה. ללא הבהירות הזו, איננו יכולים לקבוע אם האלגוריתם פועל בעוצמה רבה יותר עבור שמרנים מכיוון שהם תובעים יותר תוכן תואם אידיאולוגית מאשר ליברלים, או מסיבה אחרת", כתבו בעיתון.

יכול להיות שסביר להניח שאנשי ימין יצפו באופן עקבי בתוכן ימני ושמאלנים נוטים יותר לצפות בתוכן מגוון יותר - דברים שהם מסכימים איתם ודברים שהם משתפים בזעם - או שפשוט יש סרטונים שמרניים יותר מאשר ליברלים ביוטיוב. המלצות YouTube עשויות להימשך ימינה כדי לשקף את ספריית הסרטונים, לספק את דרישת הקהל ולהגביר את המעורבות הרצויה.

השפעה דומה נצפתה גם בטוויטר. אלגוריתם ההמלצה שלו נוטה להגביר פוסטים מפוליטיקאים ימניים ומפרסומי חדשות יותר משמאלנים. מדעני מדינה מאותו צוות ב-NYU הגיב בעבר ייתכן שהסיבה לכך היא שתוכן שמרני נוטה יותר ליצור זעם רב יותר, ולכן יוביל ליותר מעורבות.

כמו כן, אגב, ציינו בעבר שזוהי נקודת דיבור שמרנית שדעות ימין מצונזרות באופן שגרתי באופן לא הוגן או מוסתרות באינטרנט על ידי ביג טק. ייתכן שהסיבה לכך היא שתקשורת פוליטית שמרנית נתפסת ומסומנת כמידע מוטעה לעתים קרובות יותר מאשר הודעות האופוזיציה.

איש ביוטיוב או בגוגל לא הצליח להגיב לממצאי מחקר CSMP. ®

בול זמן:

עוד מ הקופה