A YouTube le encanta recomendar videos conservadores independientemente de sus creencias PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

A YouTube le encanta recomendar videos conservadores independientemente de sus creencias

El algoritmo de recomendación de YouTube no solo atrapa suavemente a los espectadores en cámaras de eco leves, sino que es más probable que sugiera videos de tendencia conservadora, independientemente de su alineamiento político.

Eso es según un estudio del Centro de Medios Sociales y Política (CSMP) de la Universidad de Nueva York que fue destacado este mes por Brookings.

Las redes sociales viven y mueren por sus algoritmos de recomendación: están diseñadas para mantener a los visitantes en los sitios y las aplicaciones brindándoles contenido que los mantiene enganchados y, si eso aumenta la participación, compartir enlaces con otros, comentar, suscribirse, votar a favor, etc. - todo lo mejor. El material controvertido o alucinante es perfecto para esto, ya que es probable que genere más comentarios y comentarios y, por lo tanto, mantenga a más personas adictas.

Por lo tanto, estos feeds se personalizan para cada internauta en función de sus intereses; eso es esencial para atraerlos y encerrarlos. Se forman cámaras de eco donde las personas publican y comparten cosas en las que tienen un interés común, e ignoran cualquier cosa contraria a esos principios y actitudes. Esto conduce a un ciclo de retroalimentación positiva de compromiso dentro del grupo, lo que refuerza las creencias y aumenta el tiempo, y las vistas de anuncios, dentro de la aplicación o el sitio web.

Aquí hay algunas preguntas. ¿Hasta qué nivel estos algoritmos de recomendación alimentan estas cámaras de eco? ¿Los algoritmos empujan a los usuarios por caminos ideológicos cada vez más estrechos, radicalizando a los internautas a medida que se adentran en una madriguera de conejo en línea? ¿Puede el software convertir a las personas en extremistas? ¿Existe un sesgo sistémico en las recomendaciones?

Para abordar este tema, un equipo de investigadores del CSMP estudió los efectos de las recomendaciones de YouTube haciendo que 1,063 estadounidenses adultos, reclutados a través de anuncios de Facebook, instalaran una extensión de navegador que controlaba su experiencia al navegar por el sitio web propiedad de Google.

Empuja a los usuarios a rangos ideológicos de contenido cada vez más estrechos en lo que podríamos llamar evidencia de una cámara de eco ideológica (muy) suave.

Se pidió a los participantes que seleccionaran un video inicial de YouTube de 25, compuesto por una mezcla de material político y no político, y luego siguieran un camino establecido a través de los videos que YouTube les recomendó ver a continuación.

Se les dijo a los internautas que siempre hicieran clic en la primera, segunda, tercera, cuarta o quinta recomendación cada vez; el espacio de recomendación se eligió al azar por persona desde el principio. Cada participante repitió este recorrido a través de los videos sugeridos de YouTube 20 veces, durante un período de octubre a diciembre de 2020.

La extensión registró qué videos recomendó YouTube en cada etapa y, por lo tanto, los videos que se vieron. El equipo calificó la visión ideológica de cada video, en función de si era más conservador o de tendencia liberal, para medir el efecto de las cámaras de eco y cualquier sesgo latente en el sistema, y ​​para ver si a los espectadores se les recomendaba contenido cada vez más extremo.

La forma en que se determinó ese puntaje ideológico es un poco crucial para esto, por lo que confiaremos por un momento en que fue sólido. Los participantes también fueron encuestados sobre su demografía.

“Descubrimos que el algoritmo de recomendación de YouTube no lleva a la gran mayoría de los usuarios a las madrigueras de conejos extremistas, aunque empuja a los usuarios a rangos ideológicos de contenido cada vez más estrechos en lo que podríamos llamar evidencia de una cámara de eco ideológica (muy) leve”, dijo el académica revelada en un informe para la Institución Brookings.

“También encontramos que, en promedio, el algoritmo de recomendación de YouTube atrae a los usuarios ligeramente hacia la derecha del espectro político, lo que creemos que es un hallazgo novedoso”.

El algoritmo atrae a los usuarios ligeramente hacia la derecha del espectro político.

El resumen de su artículo deja en claro que este golpe a la derecha ocurre "independientemente de la ideología" de los espectadores de YouTube.

El estudio encontró que los usuarios fueron empujados a ver más medios de derecha o de izquierda, dependiendo de su punto de partida. Las recomendaciones de YouTube parecen divergir ligeramente hacia la derecha para los conservadores y hacia la izquierda para los progresistas. Este cambio en la fuerza ideológica de las recomendaciones comenzó siendo pequeño y aumentó cuanto más tiempo siguió el espectador las recomendaciones del algoritmo. En otras palabras, si (por ejemplo) vio lo que se consideró material moderadamente abandonado, con el tiempo sus recomendaciones se desviarán más hacia la izquierda, pero solo de manera muy leve y gradual, según este estudio.

Por lo tanto, existen cámaras de eco ideológicas leves en YouTube, argumentaron los investigadores. Eso tendría sentido para YouTube, ya que garantiza que los espectadores se mantengan comprometidos y pegados al sitio. En particular, parece haber poca o ninguna evidencia de que los espectadores accedan rápidamente a contenido ideológicamente más extremo.

Eso puede estar en desacuerdo con su propia experiencia, ya que a veces puede ver cómo las personas son arrastradas a las madrigueras de los conejos. Uno comienza con un clip de un presentador de un programa de entrevistas inofensivo, luego un comediante moderado los dirige a mirar un poco, luego se encuentran viendo una conversación de un podcaster alternativo, luego reciben consejos de vida de un académico cuestionable, luego son los principios marginales de otro influencer, y en poco tiempo, están viendo a alguien eludiendo las reglas de YouTube sobre el discurso de odio. O tal vez el estudio tenga razón, y no es el motor de recomendaciones lo que conduce a las personas por pendientes pronunciadas.

Lo que es más interesante, quizás, es que YouTube parece inclinarse en general a recomendar contenido moderadamente conservador a los usuarios, independientemente de su orientación política, al menos según el centro de la NYU.

El equipo no está muy seguro de por qué. “Aunque nuestros datos nos permiten aislar el papel que desempeña el algoritmo de recomendación, no podemos mirar dentro de la caja negra. Sin esta claridad, no podemos determinar si el algoritmo funciona con más fuerza para los conservadores porque exigen más contenido ideológicamente congruente que los liberales, o por alguna otra razón”, escribieron en el documento.

Puede ser que los derechistas sean más propensos a ver constantemente contenido de derecha y los de izquierda sean más propensos a ver contenido más diverso, cosas con las que están de acuerdo y cosas que comparten con ira, o que simplemente hay videos más conservadores que los liberales en YouTube. Las recomendaciones de YouTube se pueden desplazar hacia la derecha para reflejar la biblioteca de videos, satisfacer la demanda de la audiencia y aumentar la participación que siempre desea.

Un efecto similar también se ha observado en Twitter. Su algoritmo de recomendación tiende a impulsar publicaciones de políticos y publicaciones de noticias de derecha más que de izquierda. Politólogos del mismo equipo en NYU comentado previamente que puede deberse a que es más probable que el contenido conservador genere más indignación y, por lo tanto, genere más participación.

Por cierto, también hemos notado antes que es un tema de conversación conservador que las opiniones de la derecha son rutinariamente censuradas injustamente o escondidas en Internet por las grandes tecnológicas. Eso puede deberse a que la comunicación política conservadora se ve y se marca como información errónea. más a menudo que los mensajes de la oposición.

Nadie en YouTube o Google pudo responder a los hallazgos del estudio CSMP. ®

Sello de tiempo:

Mas de El registro