YouTube adore recommander des vidéos conservatrices, quelles que soient vos convictions PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

YouTube adore recommander des vidéos conservatrices, quelles que soient vos convictions

L’algorithme de recommandation de YouTube non seulement piège doucement les téléspectateurs dans de légères chambres d’écho, mais il est plus susceptible de suggérer des vidéos à tendance conservatrice, quel que soit votre alignement politique.

C'est selon un étude du Centre pour les médias sociaux et la politique (CSMP) de l’Université de New York, souligné ce mois-ci par Brookings.

Les réseaux sociaux vivent et meurent grâce à leurs algorithmes de recommandation : ils sont conçus pour garder les visiteurs sur les sites et les applications en leur fournissant du contenu qui les maintient en haleine, et si cela stimule l'engagement : partager des liens avec d'autres, commenter, s'abonner, voter, etc. - Tout le meilleur. Les contenus controversés ou époustouflants sont parfaits pour cela, car ils sont susceptibles de susciter davantage de partages et de commentaires, et ainsi de rendre plus de personnes accros.

Ces flux sont ainsi personnalisés à chaque internaute en fonction de ses centres d'intérêt ; c’est essentiel pour les attirer et les enfermer. Des chambres d’écho se forment où les gens publient et partagent des choses pour lesquelles ils ont un intérêt commun, et ignorent tout ce qui est contraire à ces principes et attitudes. Cela conduit à une boucle de rétroaction positive sur l’engagement au sein du groupe, renforçant les convictions et augmentant le temps – et les vues des publicités – au sein de l’application ou du site Web.

Voici quelques questions. Dans quelle mesure ces algorithmes de recommandation alimentent-ils ces chambres d’écho ? Les algorithmes poussent-ils les utilisateurs vers des voies idéologiques de plus en plus étroites, radicalisant les internautes à mesure qu’ils s’enfoncent plus profondément dans le terrier du lapin en ligne ? Les logiciels peuvent-ils inciter les gens à l’extrémisme ? Y a-t-il un biais systémique dans les recommandations ?

Pour aborder ce sujet, une équipe de chercheurs du CSMP a étudié les effets des recommandations de YouTube en demandant à 1,063 XNUMX adultes américains, recrutés via des publicités Facebook, d'installer une extension de navigateur qui gardait un œil sur leur expérience de navigation sur le site Web appartenant à Google.

Cela pousse les utilisateurs vers des gammes de contenu idéologiques de plus en plus étroites, dans ce que nous pourrions appeler la preuve d'une (très) douce chambre d'écho idéologique.

Les participants ont été invités à sélectionner une vidéo YouTube de départ sur 25, composée d'un mélange de contenus politiques et non politiques, puis à suivre un parcours défini à travers les vidéos que YouTube leur a recommandé de regarder ensuite.

Il a été demandé aux internautes de toujours cliquer à chaque fois sur la première, la deuxième, la troisième, la quatrième ou la cinquième recommandation ; le créneau de recommandation a été choisi au hasard par personne dès le départ. Cette traversée des vidéos proposées par YouTube a été répétée 20 fois par chaque participant, sur une période d’octobre à décembre 2020.

L'extension enregistrait les vidéos recommandées par YouTube à chaque étape, et donc les vidéos visionnées. L'équipe a évalué le point de vue idéologique de chaque vidéo, selon qu'elle était plus conservatrice ou de tendance libérale, pour mesurer l'effet des chambres d'écho et tout biais latent dans le système, et pour voir si les téléspectateurs se voyaient recommander un contenu de plus en plus extrême.

La façon dont ce score idéologique a été déterminé est assez cruciale à cet égard, nous allons donc croire un instant qu’il était solide. Les participants ont également été interrogés sur leurs données démographiques.

"Nous avons constaté que l'algorithme de recommandation de YouTube ne conduit pas la grande majorité des utilisateurs dans des terriers extrémistes, bien qu'il pousse les utilisateurs vers des gammes idéologiques de plus en plus étroites dans ce que nous pourrions appeler la preuve d'une (très) légère chambre d'écho idéologique", a déclaré le rapport. universitaires divulgués dans un rapport pour la Brookings Institution.

"Nous constatons également qu'en moyenne, l'algorithme de recommandation de YouTube attire les utilisateurs légèrement à droite du spectre politique, ce qui, selon nous, est une découverte nouvelle."

L'algorithme tire les utilisateurs légèrement à droite du spectre politique

Le résumé de leur article indique clairement que ce déplacement vers la droite se produit « quelle que soit l’idéologie » des téléspectateurs de YouTube.

L’étude a révélé que les utilisateurs étaient incités à regarder davantage les médias de droite ou de gauche, selon leur point de départ. Les recommandations de YouTube semblent donc diverger légèrement vers la droite pour les conservateurs et vers la gauche pour les progressistes. Ce changement dans la force idéologique des recommandations a commencé modestement et s’est accru à mesure que le téléspectateur suivait les recommandations de l’algorithme. En d’autres termes, si vous avez (par exemple) regardé ce qui était considéré comme du matériel modérément gauche, avec le temps, vos recommandations dériveront davantage vers la gauche, mais seulement très légèrement et progressivement, selon cette étude.

De légères chambres d’écho idéologiques existent donc sur YouTube, affirment les chercheurs. Cela aurait du sens pour YouTube, car cela garantirait que les téléspectateurs restent engagés et collés au site. Notamment, il semble y avoir peu ou pas de preuves que les téléspectateurs soient orientés rapidement vers des contenus plus idéologiquement extrêmes.

Cela peut être en contradiction avec votre propre expérience, car vous pouvez parfois voir comment les gens sont entraînés dans des terriers de lapin. L'un commence avec un clip d'un animateur de talk-show inoffensif, ensuite ils sont invités à regarder un peu par un comédien modéré, puis ils se retrouvent à regarder une conversation d'un podcasteur alternatif, puis ils reçoivent des conseils de vie d'un universitaire douteux, puis ce sont des principes marginaux d'un autre influenceur, et peu de temps après, ils regardent quelqu'un contourner les règles de YouTube en matière de discours de haine. Ou peut-être que l’étude a raison, et que ce n’est pas le moteur de recommandation qui pousse les gens sur des pentes abruptes.

Ce qui est peut-être plus intéressant, c'est que YouTube semble globalement avoir tendance à recommander un contenu modérément conservateur aux utilisateurs, quelle que soit leur orientation politique, du moins selon le centre de NYU.

L’équipe ne sait pas vraiment pourquoi. « Même si nos données nous permettent d’isoler le rôle joué par l’algorithme de recommandation, nous ne sommes pas en mesure de regarder à l’intérieur de la boîte noire. Sans cette clarté, nous ne pouvons pas déterminer si l’algorithme fonctionne avec plus de force pour les conservateurs parce qu’ils sont plus exigeants en matière de contenu idéologiquement conforme que les libéraux, ou pour une autre raison », ont-ils écrit dans le journal.

Il se peut que les gens de droite soient plus susceptibles de regarder régulièrement du contenu de droite et que les gens de gauche soient plus susceptibles de regarder des contenus plus diversifiés – des choses avec lesquelles ils sont d'accord et des choses qu'ils partagent avec rage – ou qu'il existe simplement des vidéos plus conservatrices que les libéraux sur YouTube. Les recommandations YouTube peuvent être déplacées vers la droite pour refléter la vidéothèque, satisfaire la demande du public et stimuler l'engagement toujours souhaité.

Un effet similaire a également été observé sur Twitter. Son algorithme de recommandation a tendance à booster les publications davantage de la part des hommes politiques et des médias de droite que de ceux de gauche. Des politologues de la même équipe à NYU précédemment commenté que c'est peut-être parce que le contenu conservateur est plus susceptible de générer plus d'indignation et, par conséquent, de conduire à plus d'engagement.

Soit dit en passant, nous avons également noté précédemment que le fait que les opinions de droite soient systématiquement injustement censurées ou cachées sur Internet par les grandes technologies est un sujet de discussion conservateur. Cela peut être dû au fait que la communication politique conservatrice est considérée et signalée comme de la désinformation. plus souvent que les messages de l’opposition.

Personne chez YouTube ou Google n’a été en mesure de répondre aux conclusions de l’étude CSMP. ®

Horodatage:

Plus de Le registre