YouTube empfiehlt gerne konservative Videos, unabhängig von Ihren Überzeugungen, PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

YouTube empfiehlt unabhängig von Ihrer Überzeugung gerne konservative Videos

Der Empfehlungsalgorithmus von YouTube fängt die Zuschauer nicht nur sanft in milden Echokammern ein, er schlägt eher konservativ orientierte Videos vor, unabhängig von Ihrer politischen Ausrichtung.

Das ist nach a Studie aus dem Center for Social Media and Politics (CSMP) der New York University, das diesen Monat von Brookings hervorgehoben wurde.

Soziale Netzwerke leben und sterben durch ihre Empfehlungsalgorithmen: Sie sind darauf ausgelegt, Besucher auf den Seiten und Apps zu halten, indem sie sie mit Inhalten versorgen, die sie süchtig machen, und wenn das das Engagement erhöht – Links mit anderen teilen, kommentieren, abonnieren, positiv bewerten usw - umso besser. Kontroverses oder überwältigendes Material ist dafür perfekt, da es wahrscheinlich zu mehr Teilen und Kommentaren führt und somit mehr Menschen süchtig macht.

Diese Feeds werden somit für jeden Internetnutzer basierend auf seinen Interessen personalisiert; Das ist wichtig, um sie anzuziehen und einzusperren. Echokammern bilden sich, wenn Leute Dinge posten und teilen, an denen sie ein gemeinsames Interesse haben, und alles ignorieren, was diesen Prinzipien und Einstellungen widerspricht. Dies führt zu einer positiven Feedback-Schleife des Engagements innerhalb der Gruppe, verstärkt Überzeugungen und erhöht die Zeit – und Anzeigenansichten – innerhalb der App oder Website.

Hier sind einige Fragen. Auf welchem ​​Niveau treiben diese Empfehlungsalgorithmen diese Echokammern an? Drücken die Algorithmen die Benutzer auf immer engere ideologische Pfade und radikalisieren sie die Internetnutzer, während sie tiefer in ein Online-Kaninchenloch vordringen? Kann Software Menschen zum Extremismus machen? Gibt es eine systemische Verzerrung in den Empfehlungen?

Um dieses Thema anzugehen, untersuchte ein Forscherteam des CSMP die Auswirkungen von YouTube-Empfehlungen, indem es 1,063 erwachsene Amerikaner, die über Facebook-Anzeigen angeworben wurden, dazu brachte, eine Browsererweiterung zu installieren, die ihre Erfahrungen beim Surfen auf der Google-Website im Auge behielt.

Es drängt die Benutzer in immer engere ideologische Inhaltsbereiche, was wir als Beweis für eine (sehr) milde ideologische Echokammer bezeichnen könnten

Die Teilnehmer wurden gebeten, eines von 25 YouTube-Startvideos auszuwählen, das aus einer Mischung aus politischem und unpolitischem Material besteht, und dann einem festgelegten Pfad durch die Videos zu folgen, die YouTube ihnen als nächstes empfohlen hat.

Den Internetnutzern wurde gesagt, dass sie jedes Mal entweder auf die erste, zweite, dritte, vierte oder fünfte Empfehlung klicken sollten; Der Empfehlungsplatz wurde von Anfang an per Zufall ausgewählt. Diese Durchquerung der von YouTube vorgeschlagenen Videos wurde von jedem Teilnehmer über einen Zeitraum von Oktober bis Dezember 20 2020 Mal wiederholt.

Die Erweiterung protokollierte in jeder Phase, welche Videos YouTube empfohlen hat und welche Videos somit angesehen wurden. Das Team bewertete die ideologische Sichtweise jedes Videos, basierend darauf, ob es eher konservativ oder liberal ausgerichtet war, um die Wirkung von Echokammern und latenten Vorurteilen im System zu messen und um zu sehen, ob den Zuschauern immer extremere Inhalte empfohlen wurden.

Wie dieser ideologische Score bestimmt wurde, ist dafür ziemlich entscheidend, also vertrauen wir für einen Moment darauf, dass er robust war. Die Teilnehmer wurden auch zu ihrer Demographie befragt.

„Wir haben festgestellt, dass der Empfehlungsalgorithmus von YouTube die überwiegende Mehrheit der Nutzer nicht in extremistische Kaninchenlöcher führt, obwohl er die Nutzer in immer engere ideologische Inhaltsbereiche drängt, was wir als Beweis für eine (sehr) milde ideologische Echokammer bezeichnen könnten“, the Akademiker offengelegt in einem Bericht für die Brookings Institution.

„Wir stellen auch fest, dass der YouTube-Empfehlungsalgorithmus die Nutzer im Durchschnitt leicht nach rechts aus dem politischen Spektrum zieht, was wir für eine neuartige Erkenntnis halten.“

Der Algorithmus zieht die Nutzer leicht nach rechts aus dem politischen Spektrum

Die Zusammenfassung ihres Papiers macht deutlich, dass dieser Rechtsruck „unabhängig von der Ideologie“ der YouTube-Zuschauer geschieht.

Die Studie ergab, dass die Nutzer je nach Ausgangslage dazu gebracht wurden, mehr rechte oder linke Medien zu sehen. YouTube-Empfehlungen scheinen daher für Konservative leicht nach rechts und für Progressive nach links abzuweichen. Diese Änderung der ideologischen Stärke der Empfehlungen begann klein und nahm zu, je länger der Betrachter den Empfehlungen des Algorithmus folgte. Mit anderen Worten, wenn Sie (zum Beispiel) Material angesehen haben, das als mäßig links angesehen wurde, werden Ihre Empfehlungen laut dieser Studie im Laufe der Zeit mehr nach links driften, aber nur sehr leicht und allmählich.

Auf YouTube gebe es also milde ideologische Echokammern, argumentierten die Forscher. Das wäre für YouTube sinnvoll, da es sicherstellt, dass die Zuschauer engagiert bleiben und an der Website kleben bleiben. Insbesondere scheint es wenig bis gar keine Beweise dafür zu geben, dass die Zuschauer auf die Überholspur zu ideologisch extremeren Inhalten gebracht werden.

Das kann Ihrer eigenen Erfahrung widersprechen, da Sie manchmal sehen können, wie Menschen in Kaninchenlöcher gezogen werden. Einer beginnt mit einem Clip eines harmlosen Talkshow-Moderators, als nächstes werden sie von einem gemäßigten Komiker dazu angeleitet, ein bisschen zuzusehen, dann sehen sie sich ein Gespräch eines alternativen Podcasters an, dann erhalten sie Lebensratschläge von einem fragwürdigen Akademiker. dann sind es Randprinzipien eines anderen Influencers, und bald sehen sie zu, wie jemand die YouTube-Regeln zu Hassreden umgeht. Oder vielleicht hat die Studie recht, und es ist nicht die Empfehlungsmaschine, die Menschen steile Hänge hinunterfährt.

Interessanter ist vielleicht, dass YouTube insgesamt dazu zu neigen scheint, Nutzern unabhängig von ihrer politischen Ausrichtung gemäßigt konservative Inhalte zu empfehlen, zumindest laut NYU Center.

Das Team ist sich nicht ganz sicher, warum. „Obwohl unsere Daten es uns ermöglichen, die Rolle des Empfehlungsalgorithmus zu isolieren, können wir nicht in die Black Box blicken. Ohne diese Klarheit können wir nicht feststellen, ob der Algorithmus für Konservative stärker wirkt, weil sie ideologisch kongruente Inhalte stärker fordern als Liberale, oder aus einem anderen Grund“, schreiben sie in der Zeitung.

Es kann sein, dass Rechte eher konsequent rechte Inhalte ansehen und Linke eher vielfältigere Inhalte ansehen – Dinge, denen sie zustimmen, und Dinge, die sie wütend teilen – oder dass es einfach konservativere Videos gibt als Liberale auf YouTube. YouTube-Empfehlungen können nach rechts gezogen werden, um die Videobibliothek widerzuspiegeln, die Nachfrage des Publikums zu befriedigen und das immer gewünschte Engagement zu steigern.

Ein ähnlicher Effekt wurde auch bei Twitter beobachtet. Sein Empfehlungsalgorithmus neigt dazu Beiträge verstärken von rechten Politikern und Nachrichtenpublikationen mehr als von linken. Politikwissenschaftler aus demselben Team an der NYU zuvor kommentiert Das mag daran liegen, dass konservative Inhalte eher für mehr Empörung und damit für mehr Engagement sorgen.

Wir haben übrigens auch schon früher darauf hingewiesen, dass es ein konservatives Gesprächsthema ist, dass rechte Ansichten von Big Tech routinemäßig unfair zensiert oder im Internet versteckt werden. Das mag daran liegen, dass konservative politische Kommunikation als Fehlinformation angesehen und gekennzeichnet wird öfters als die Nachrichten der Opposition.

Niemand bei YouTube oder Google war in der Lage, auf die Ergebnisse der CSMP-Studie zu antworten. ®

Zeitstempel:

Mehr von Das Register