YouTube は、あなたの信念に関係なく、保守的な動画を推奨するのが大好きです。 PlatoBlockchain Data Intelligence。垂直検索。あい。

YouTube は、あなたの信念に関係なく保守的な動画を推奨するのが大好きです

YouTube のレコメンデーション アルゴリズムは、視聴者を穏やかな反響室にやさしく閉じ込めるだけでなく、政治的見解に関係なく、保守寄りの動画を提案する可能性が高くなります。

それは 研究 Brookings が今月注目したニューヨーク大学のソーシャル メディアと政治のセンター (CSMP) から。

ソーシャル ネットワークは、レコメンデーション アルゴリズムによって生死を分けます。ソーシャル ネットワークは、訪問者を夢中にさせるコンテンツを提供することで、訪問者をサイトやアプリにとどまらせるように設計されています。 – さらに良い。 物議を醸す、または衝撃的な素材は、これに最適です。より多くの共有やコメントを引き起こし、より多くの人々を夢中にさせる可能性が高いからです.

したがって、これらのフィードは、関心に基づいて各ネチズンに合わせてパーソナライズされます。 人々が共通の関心を持つものを投稿して共有し、それらの原則や態度に反するものはすべて無視するところに、反響室が形成されます。 これにより、グループ内でエンゲージメントの肯定的なフィードバック ループが生まれ、信念が強化され、アプリやウェブサイト内での時間と広告ビューが増加します。

ここにいくつかの質問があります。 これらのレコメンデーション アルゴリズムは、これらのエコー チェンバーをどのレベルまで促進しますか? アルゴリズムはユーザーをますます狭いイデオロギーの道に押し込み、オンラインのウサギの穴に深く入り込むネチズンを過激化させますか? ソフトウェアは人々を過激主義に変えることができますか? 推奨事項に体系的なバイアスはありますか?

この問題に取り組むために、CSMP の研究者チームは、Facebook 広告で募集された 1,063 人の成人アメリカ人に、Google 所有の Web サイトの閲覧経験を監視するブラウザ拡張機能をインストールしてもらい、YouTube の推奨事項の影響を調査しました。

それは、(非常に)穏やかなイデオロギーの反響室の証拠と呼ぶことができる、ますます狭いイデオロギーの範囲のコンテンツにユーザーを押し込みます

参加者は、政治的な内容と非政治的な内容が混在する 25 の YouTube ビデオから XNUMX つを選択し、YouTube が次に視聴することを推奨する一連の経路をたどるよう求められました。

ネチズンは毎回、20 番目、2020 番目、XNUMX 番目、XNUMX 番目、または XNUMX 番目の推奨事項のいずれかをクリックするように指示されました。 推薦枠は最初からお一人様ランダムに選ばれます。 XNUMX 年 XNUMX 月から XNUMX 月までの期間に、各参加者は YouTube のおすすめ動画を XNUMX 回繰り返しました。

拡張機能は、各段階で YouTube が推奨する動画を記録し、視聴された動画を記録しました。 チームは、各ビデオのイデオロギー的見解を保守的かリベラル寄りかに基づいて採点し、エコー チェンバーの影響とシステム内の潜在的な偏見を測定し、視聴者がますます極端なコンテンツを推奨されているかどうかを確認しました。

そのイデオロギーのスコアがどのように決定されたかは、これにとって非常に重要です。 参加者は、人口統計についても調査されました。

「YouTube のレコメンデーション アルゴリズムは、大多数のユーザーを過激派のウサギの穴に誘導するわけではありませんが、(非常に) 穏やかなイデオロギーのエコー チェンバーの証拠と呼ぶことができる、ますます狭いイデオロギーの範囲のコンテンツにユーザーを押し込んでいることがわかりました。」学者 開示 ブルッキングス研究所のレポートで。

「また、平均して、YouTube のレコメンデーション アルゴリズムがユーザーを政治的スペクトルのわずかに右側に引っ張っていることもわかりました。これは、新しい発見であると考えています。」

このアルゴリズムは、ユーザーを政治的スペクトルのわずかに右側に引き寄せます

彼らの論文の要約は、YouTube 視聴者の「イデオロギーに関係なく」この右への隆起が起こることを明らかにしています。

この調査によると、ユーザーは開始点に応じて、右翼または左翼のメディアをより多く視聴するようになりました。 したがって、YouTube の推奨事項は、保守派の場合は右に、進歩派の場合は左にわずかにずれているように見えます。 この推奨のイデオロギーの強さの変化は、最初は小さく、視聴者がアルゴリズムの推奨に従う時間が長くなるほど増加しました。 言い換えれば、この調査によると、(たとえば) 適度に残されていると見なされたコンテンツを見た場合、時間が経つにつれて、あなたのおすすめはより左にずれますが、それはごくわずかに、そして徐々にです.

したがって、軽度のイデオロギーの反響室が YouTube に存在する、と研究者は主張した。 これは YouTube にとって理にかなっています。視聴者のエンゲージメントを維持し、サイトに釘付けになることが保証されるからです。 特に、視聴者がよりイデオロギー的に極端なコンテンツへと急行するという証拠はほとんどないようです。

人々がどのようにうさぎの穴に引きずり込まれるかを見ることができるので、それはあなた自身の経験と矛盾するかもしれません. 無害なトークショーの司会者のクリップから始まり、次に適度なコメディアンに少し見られるように誘導され、別のポッドキャスターからの会話を見ていることに気づき、疑わしい学者から人生のアドバイスを受けています。そして、それは別のインフルエンサーによる過激な原則であり、やがて彼らは、YouTube のヘイトスピーチに関するルールを回避する人物を目にするようになります。 あるいは、この研究は正しく、人々を急な坂道を下らせるレコメンデーション エンジンではないのかもしれません。

さらに興味深いのは、少なくとも NYU センターによると、YouTube は全体的に、ユーザーの政治的志向に関係なく、適度に保守的なコンテンツをユーザーに推奨する方向に傾いているように見えるということです。

チームはその理由をよくわかっていません。 「私たちのデータは、レコメンデーション アルゴリズムが果たす役割を分離することを可能にしますが、ブラック ボックスの内部を覗き見ることはできません。 この明確さがなければ、保守派はリベラル派よりもイデオロギー的に一致するコンテンツを要求するため、またはその他の理由で、アルゴリズムがより強力に機能するかどうかを判断できません」と彼らは論文に書いています.

右翼は常に右翼のコンテンツを視聴する可能性が高く、左翼はより多様なコンテンツ (同意するものや激怒するもの) を視聴する可能性が高いか、単により保守的なビデオが存在する可能性があります。 YouTubeのリベラルなもの。 YouTube のレコメンデーションは、ビデオ ライブラリを反映し、視聴者の需要を満たし、望まれるエンゲージメントを促進するために右側に引っ張られる場合があります。

Twitterでも同様の効果が観察されています。 その推奨アルゴリズムは、 ブースト投稿 左翼よりも右翼の政治家やニュース出版物から。 NYU の同じチームの政治学者 以前にコメントした それは、保守的なコンテンツがより多くの怒りを生む可能性が高く、したがってより多くのエンゲージメントにつながるためである可能性があります.

ところで、私たちは以前、右翼の見解がビッグテックによってインターネット上で日常的に不当に検閲されたり隠されたりしていることは保守的な論点であることにも言及しました. それは、保守的な政治的コミュニケーションが見られ、誤報としてフラグが立てられるためかもしれません より頻繁に 野党のメッセージよりも。

YouTube と Google の誰も、CSMP の調査結果に対応できませんでした。 ®

タイムスタンプ:

より多くの 登録