O YouTube adora recomendar vídeos conservadores, independentemente de suas crenças. PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

O YouTube adora recomendar vídeos conservadores, independentemente de suas crenças

O algoritmo de recomendação do YouTube não apenas prende suavemente os espectadores em câmaras de eco moderadas, mas também sugere vídeos de tendência conservadora, independentemente do seu alinhamento político.

Isso é de acordo com um estudo do Centro de Mídia Social e Política (CSMP) da Universidade de Nova York, que foi destacado este mês pela Brookings.

As redes sociais vivem e morrem por seus algoritmos de recomendação: elas são projetadas para manter os visitantes nos sites e aplicativos, alimentando-os com conteúdo que os mantém fisgados e, se isso aumenta o engajamento – compartilhando links com outras pessoas, comentando, assinando, votando positivamente, etc. - tudo do melhor. Material polêmico ou alucinante é perfeito para isso, pois é provável que gere mais compartilhamentos e comentários e, assim, mantenha mais pessoas viciadas.

Esses feeds são, portanto, personalizados para cada internauta com base em seus interesses; isso é essencial para atraí-los e prendê-los. As câmaras de eco são formadas onde as pessoas postam e compartilham coisas nas quais têm um interesse comum e ignoram qualquer coisa contrária a esses princípios e atitudes. Isso leva a um ciclo de feedback positivo de envolvimento dentro do grupo, reforçando crenças e aumentando o tempo – e visualizações de anúncios – dentro do aplicativo ou site.

Aqui estão algumas perguntas. Até que nível esses algoritmos de recomendação alimentam essas câmaras de eco? Será que os algoritmos empurram os utilizadores para caminhos ideológicos cada vez mais estreitos, radicalizando os internautas à medida que se aprofundam na toca do coelho online? O software pode levar as pessoas ao extremismo? Existe um viés sistêmico nas recomendações?

Para abordar esse assunto, uma equipe de pesquisadores do CSMP estudou os efeitos das recomendações do YouTube, fazendo com que 1,063 americanos adultos, recrutados por meio de anúncios no Facebook, instalassem uma extensão de navegador que monitorasse sua experiência de navegação no site de propriedade do Google.

Isso empurra os usuários para faixas ideológicas de conteúdo cada vez mais estreitas, no que poderíamos chamar de evidência de uma câmara de eco ideológica (muito) moderada.

Os participantes foram convidados a selecionar um vídeo inicial do YouTube entre 25, composto por uma mistura de conteúdo político e não político, e depois seguir um caminho definido pelos vídeos que o YouTube recomendou que assistissem em seguida.

Os internautas foram instruídos a sempre clicar na primeira, segunda, terceira, quarta ou quinta recomendação de cada vez; o slot de recomendação foi escolhido aleatoriamente por pessoa desde o início. Esse percurso pelos vídeos sugeridos pelo YouTube foi repetido 20 vezes por cada participante, no período de outubro a dezembro de 2020.

A extensão registrou quais vídeos o YouTube recomendou em cada etapa e, portanto, os vídeos que foram assistidos. A equipe pontuou a visão ideológica de cada vídeo, com base em sua tendência mais conservadora ou liberal, para medir o efeito das câmaras de eco e qualquer preconceito latente no sistema, e para ver se os espectadores estavam recebendo recomendações de conteúdo cada vez mais extremo.

A forma como essa pontuação ideológica foi determinada é crucial para isso, por isso confiaremos por um momento que ela foi robusta. Os participantes também foram entrevistados sobre seus dados demográficos.

“Descobrimos que o algoritmo de recomendação do YouTube não conduz a grande maioria dos usuários para tocas de coelhos extremistas, embora empurre os usuários para faixas ideológicas cada vez mais estreitas de conteúdo, no que poderíamos chamar de evidência de uma câmara de eco ideológica (muito) moderada”, disse o pesquisador. acadêmicos divulgados em um relatório para a Brookings Institution.

“Também descobrimos que, em média, o algoritmo de recomendação do YouTube puxa os usuários ligeiramente para a direita do espectro político, o que acreditamos ser uma descoberta nova.”

O algoritmo puxa os usuários ligeiramente para a direita do espectro político

O resumo do seu artigo deixa claro que este salto para a direita acontece “independentemente da ideologia” dos telespectadores do YouTube.

O estudo descobriu que os usuários foram incentivados a assistir mais mídia de direita ou de esquerda, dependendo do ponto de partida. As recomendações do YouTube parecem divergir ligeiramente para a direita para os conservadores e para a esquerda para os progressistas. Esta mudança na força ideológica das recomendações começou pequena e aumentou à medida que o visualizador seguia as recomendações do algoritmo. Por outras palavras, se assistiu (por exemplo) ao que foi considerado material moderadamente à esquerda, com o tempo as suas recomendações irão desviar-se mais para a esquerda, mas apenas muito ligeiramente e gradualmente, de acordo com este estudo.

Portanto, existem câmaras de eco ideológicas moderadas no YouTube, argumentaram os pesquisadores. Isso faria sentido para o YouTube, pois garante que os espectadores permaneçam engajados e colados ao site. Notavelmente, parece haver pouca ou nenhuma evidência de que os espectadores sejam colocados em um caminho acelerado para conteúdos ideologicamente mais extremos.

Isso pode estar em desacordo com a sua própria experiência, pois às vezes você pode ver como as pessoas são puxadas para a toca do coelho. Um começa com um clipe de um apresentador de talk show inofensivo, em seguida eles são orientados a assistir um pouco por um comediante moderado, então eles se vêem assistindo a uma conversa de um podcaster alternativo, então eles estão recebendo conselhos de vida de um acadêmico questionável, então são princípios marginais de outro influenciador e, em pouco tempo, eles estão assistindo alguém contornando as regras do YouTube sobre discurso de ódio. Ou talvez o estudo esteja certo e não seja o mecanismo de recomendação que leva as pessoas a descer encostas íngremes.

O que é mais interessante, talvez, é que o YouTube parece, em geral, inclinar-se a recomendar conteúdo moderadamente conservador aos utilizadores, independentemente da sua orientação política, pelo menos de acordo com o centro da NYU.

A equipe não sabe ao certo por quê. “Embora nossos dados nos permitam isolar o papel desempenhado pelo algoritmo de recomendação, não conseguimos espiar dentro da caixa preta. Sem esta clareza, não podemos determinar se o algoritmo funciona com mais força para os conservadores porque eles exigem mais conteúdo ideologicamente congruente do que os liberais, ou por alguma outra razão”, escreveram no jornal.

Pode ser que os direitistas sejam mais propensos a assistir consistentemente conteúdo de direita e os esquerdistas sejam mais propensos a ver conteúdos mais diversos – coisas com as quais concordam e coisas que compartilham com raiva – ou que simplesmente existam vídeos mais conservadores do que liberais no YouTube. As recomendações do YouTube podem ser puxadas para a direita para refletir a videoteca, satisfazer a demanda do público e aumentar o envolvimento sempre desejado.

Um efeito semelhante também foi observado no Twitter. Seu algoritmo de recomendação tende a impulsionar postagens mais de políticos e publicações de notícias de direita do que de esquerda. Cientistas políticos da mesma equipe da NYU comentado anteriormente que pode ser porque o conteúdo conservador tem maior probabilidade de gerar mais indignação e, portanto, levar a mais engajamento.

A propósito, também já observamos que é um argumento conservador que as opiniões da direita são rotineiramente censuradas injustamente ou escondidas na Internet pelas Big Tech. Isso pode ocorrer porque a comunicação política conservadora é vista e sinalizada como desinformação mais frequentemente do que as mensagens da oposição.

Ninguém no YouTube ou no Google foi capaz de responder às conclusões do estudo CSMP. ®

Carimbo de hora:

Mais de O registro