无论您信仰 PlatoBlockchain 数据智能,YouTube 都喜欢推荐保守的视频。垂直搜索。人工智能。

无论您的信仰如何,YouTube 都喜欢推荐保守的视频

YouTube 的推荐算法不仅将观众轻轻地困在温和的回音室中,而且无论您的政治立场如何,它更有可能推荐保守倾向的视频。

这是根据a 根据一项研究, 来自纽约大学社交媒体和政治中心 (CSMP),本月布鲁金斯学会强调了这一点。

社交网络的生死存亡取决于他们的推荐算法:它们旨在通过向访问者提供让他们上瘾的内容来让访问者留在网站和应用程序上,如果这能提高参与度——与他人分享链接、评论、订阅、点赞等——一切都好。 有争议或令人兴奋的材料非常适合这一点,因为它可能会引发更多的分享和评论,从而让更多的人上瘾。

因此,这些提要根据每个网民的兴趣个性化; 这对于吸引和锁定它们至关重要。回声室形成人们发布和分享他们共同感兴趣的东西的地方,并忽略任何与这些原则和态度相反的东西。 这会导致团队内参与的积极反馈循环,加强信念并增加应用程序或网站内的时间和广告浏览量。

这里有一些问题。 这些推荐算法为这些回声室提供了多大的支持? 算法是否将用户推向越来越狭窄的意识形态路径,从而使网民更加激进,因为他们更深地陷入了在线兔子洞? 软件能把人变成极端主义吗? 建议中是否存在系统性偏见?

为了解决这个问题,CSMP 的一组研究人员通过 Facebook 广告招募了 1,063 名美国成年人,安装一个浏览器扩展程序来研究 YouTube 推荐的效果,该扩展程序会记录他们浏览 Google 旗下网站的体验。

它确实将用户推入越来越狭窄的意识形态内容范围,我们可以称之为(非常)温和的意识形态回声室的证据

参与者被要求从 25 个开始的 YouTube 视频中选择一个,由政治和非政治内容混合而成,然后按照设定的路径浏览 YouTube 推荐他们接下来观看的视频。

网友被告知每次都要点击第一、第二、第三、第四或第五个推荐;推荐时段从一开始就是每个人随机选择的。在 20 年 2020 月至 XNUMX 月期间,每位参与者重复浏览 YouTube 推荐视频 XNUMX 次。

该扩展程序记录了 YouTube 在每个阶段推荐的视频以及观看的视频。 该团队根据每个视频是否更保守或更倾向于自由主义倾向,对每个视频的意识形态观点进行评分,以衡量回声室的影响和系统中任何潜在的偏见,并看看是否向观众推荐越来越多的极端内容。

如何确定意识形态分数对此至关重要,因此我们暂时相信它是可靠的。还对参与者的人口统计数据进行了调查。

“我们发现,YouTube 的推荐算法并没有将绝大多数用户引向极端主义的兔子洞,尽管它确实将用户推向了越来越狭窄的意识形态内容范围,我们可能称之为(非常)温和的意识形态回声室的证据,”学者 披露 在布鲁金斯学会的一份报告中。

“我们还发现,平均而言,YouTube 推荐算法将用户拉到政治光谱的右侧,我们认为这是一个新发现。”

该算法将用户略微拉到政治光谱的右侧

他们论文的摘要清楚地表明,这种向右的撞击发生在“无论 YouTube 观众的意识形态如何”。

研究发现,用户会被促使观看更多右翼或左翼媒体,具体取决于他们的出发点。因此,YouTube 的推荐似乎会稍微偏离保守派的右派和进步派的左派。推荐的意识形态强度的这种变化一开始很小,随着观看者遵循算法推荐的时间越长,这种变化就会增加。换句话说,根据这项研究,如果您(例如)观看了被认为是适度左移的内容,那么随着时间的推移,您的推荐将更加左移,但只是非常轻微且逐渐的。

研究人员认为,YouTube 上因此存在温和的意识形态回声室。 这对 YouTube 来说很有意义,因为它可以确保观众保持参与并粘在该网站上。 值得注意的是,似乎几乎没有证据表明观众会快速观看意识形态上更加极端的内容。

这可能与你自己的经历不一致,因为有时你会看到人们是如何被拉进兔子洞的。人们从一个无害的脱口秀主持人的片段开始,接下来他们被一个温和的喜剧演员引导观看一段,然后他们发现自己在观看另一个播客的对话,然后他们从一个有问题的学者那里得到生活建议,然后是另一位有影响力的人提出的边缘原则,不久之后,他们就看到有人绕过 YouTube 关于仇恨言论的规则。或者也许这项研究是正确的,它并不是推荐引擎驱使人们走下陡坡。

也许更有趣的是,YouTube 似乎总体上倾向于向用户推荐适度保守的内容,而不管他们的政治倾向如何,至少根据纽约大学中心的说法。

团队不太清楚为什么。 “虽然我们的数据允许我们隔离推荐算法所扮演的角色,但我们无法窥视黑匣子内部。 如果没有这种明确性,我们无法确定该算法是否对保守派更有效,因为他们比自由派更需要意识形态一致的内容,或者出于其他原因,”他们在论文中写道。

也许右翼人士更有可能持续观看右翼内容,而左翼人士更有可能观看更多样化的内容——他们同意的内容和他们愤怒分享的内容——或者只是保守的视频比保守的视频更多。 YouTube 上的自由派。 YouTube 推荐可能会被拉到右侧,以反映视频库、满足观众需求并提高人们所期望的参与度。

在 Twitter 上也观察到了类似的效果。 它的推荐算法倾向于 提升帖子 来自右翼政客和新闻出版物的消息多于左翼政客。 来自纽约大学同一团队的政治科学家 以前评论过 这可能是因为保守的内容更有可能引起更多的愤怒,因此会导致更多的参与。

顺便说一句,我们之前也注意到,右翼观点经常被大科技公司不公平地审查或隐藏在互联网上,这是一个保守的话题。 这可能是因为保守的政治沟通被视为错误信息并被标记为错误信息 更频繁 比反对的消息。

YouTube 或 Google 的任何人都无法对 CSMP 研究的结果做出回应。 ®

时间戳记:

更多来自 注册