YouTube는 PlatoBlockchain 데이터 인텔리전스의 신념에 관계없이 보수적인 동영상 추천을 좋아합니다. 수직 검색. 일체 포함.

YouTube는 신념에 관계없이 보수적인 동영상을 추천하는 것을 좋아합니다.

YouTube의 추천 알고리즘은 시청자를 약한 반향실에 부드럽게 가둘 뿐만 아니라 정치적 성향에 관계없이 보수적인 동영상을 제안할 가능성이 더 큽니다.

그것은에 따르면 공부 Brookings가 이번 달에 강조한 New York University의 CSMP(소셜 미디어 및 정치 센터)에서 나온 것입니다.

소셜 네트워크는 추천 알고리즘에 따라 살고 죽습니다. 방문자를 계속 매료시키는 콘텐츠를 제공하여 방문자를 사이트와 앱에 계속 머물게 하고, 다른 사람과 링크 공유, 댓글 달기, 구독하기, 찬성 투표 등 참여를 유도하도록 설계되었습니다. - 모든 것이 좋습니다. 더 많은 공유와 댓글을 촉발시켜 더 많은 사람들을 중독 상태로 만들 가능성이 높기 때문에 논쟁의 여지가 있거나 마음을 사로잡는 자료가 적합합니다.

따라서 이러한 피드는 관심 분야에 따라 각 네티즌에게 개인화됩니다. 그것은 그것들을 끌어들이고 가두는 데 필수적입니다. 에코 챔버는 사람들이 공통 관심사를 가진 것을 게시하고 공유하는 곳이며, 그러한 원칙과 태도에 반하는 것은 무시합니다. 이는 그룹 내 참여의 긍정적인 피드백 루프로 이어지며 신념을 강화하고 앱 또는 웹사이트 내에서 시간과 광고 조회수를 늘립니다.

다음은 몇 가지 질문입니다. 이러한 추천 알고리즘이 이러한 반향실에 연료를 공급하는 수준은 어느 정도입니까? 알고리즘이 사용자를 점점 더 좁은 이데올로기 경로로 밀어넣고, 네티즌이 온라인 토끼굴에 더 깊이 들어갈수록 급진화됩니까? 소프트웨어가 사람들을 극단주의로 만들 수 있습니까? 권장 사항에 체계적인 편향이 있습니까?

이 주제를 다루기 위해 CSMP의 연구원 팀은 Facebook 광고를 통해 모집된 1,063명의 성인 미국인에게 Google 소유 웹사이트를 탐색하는 경험을 추적하는 브라우저 확장 프로그램을 설치하도록 하여 YouTube 추천의 효과를 연구했습니다.

그것은 우리가 (매우) 온건한 이념적 반향실의 증거라고 부를 수 있는 내용의 점점 더 좁은 이념적 범위로 사용자를 밀어 넣습니다.

참가자들은 정치 및 비정치적인 내용이 혼합된 25개의 YouTube 시작 동영상 중 하나를 선택하고 YouTube에서 추천하는 동영상을 통해 정해진 경로를 따라 시청하도록 요청했습니다.

네티즌들은 매번 첫 번째, 두 번째, 세 번째, 네 번째 또는 다섯 번째 권장 사항을 항상 클릭하라는 지시를 받았습니다. 추천 슬롯은 처음부터 20인당 무작위로 선정되었습니다. YouTube의 추천 동영상을 통한 이 순회는 2020년 XNUMX월부터 XNUMX월까지 각 참가자에 의해 XNUMX번 반복되었습니다.

확장 프로그램은 YouTube가 모든 단계에서 추천한 동영상과 시청한 동영상을 기록했습니다. 팀은 반향실의 효과와 시스템의 잠재적 편견을 측정하고 시청자가 점점 더 극단적인 콘텐츠를 추천받고 있는지 확인하기 위해 각 비디오의 이념적 관점을 더 보수적인지 자유주의적 성향인지에 따라 점수를 매겼습니다.

그 이념적 점수가 어떻게 결정되었는지는 이것에 다소 결정적이므로 우리는 그것이 강력하다고 잠시 신뢰할 것입니다. 참가자들은 또한 인구 통계에 대한 설문 조사를 받았습니다.

"우리는 YouTube의 추천 알고리즘이 대다수의 사용자를 극단주의적인 토끼굴로 이끌지 않는다는 것을 발견했습니다. 비록 그것이 사용자를 (매우) 온건한 이데올로기 반향실의 증거라고 부를 수 있는 점점 더 좁은 이념적 범위의 콘텐츠로 밀어넣습니다." 아카데믹 공개 브루킹스 연구소 보고서에서.

"또한 우리는 평균적으로 YouTube 추천 알고리즘이 사용자를 정치적 스펙트럼의 약간 오른쪽으로 끌어당기는 것을 발견했는데, 이는 참신한 발견이라고 생각합니다."

알고리즘은 사용자를 정치적 스펙트럼의 약간 오른쪽으로 끌어당깁니다.

이 논문의 초록은 YouTube 시청자의 "이념에 관계없이" 오른쪽으로의 충돌이 발생한다는 것을 분명히 합니다.

연구에 따르면 사용자는 시작 지점에 따라 더 많은 우익 또는 좌익 미디어를 시청하도록 유도되었습니다. 따라서 YouTube 권장 사항은 보수의 경우 오른쪽으로, 진보의 경우 왼쪽으로 약간 분기되는 것으로 보입니다. 이러한 권장 사항의 이데올로기적 강도 변화는 작게 시작하여 시청자가 알고리즘의 권장 사항을 따를수록 증가했습니다. 다시 말해서, (예를 들어) 적당히 남아 있는 것으로 간주되는 자료를 본 경우 시간이 지남에 따라 권장 사항이 왼쪽으로 더 많이 이동하지만 이 연구에 따르면 아주 약간 그리고 점진적으로만 표시됩니다.

따라서 YouTube에는 온화한 이데올로기적 반향실이 존재한다고 연구자들은 주장했습니다. 시청자의 참여를 유지하고 사이트에 계속 붙어 있도록 하기 때문에 YouTube에 적합합니다. 특히 시청자가 이념적으로 극단적인 콘텐츠에 빠르게 몰리고 있다는 증거가 거의 또는 전혀 없는 것 같습니다.

때때로 사람들이 어떻게 토끼굴에 빠지는지를 볼 수 있기 때문에 자신의 경험과 상충될 수 있습니다. 하나는 무해한 토크쇼 진행자의 클립으로 시작하고, 다음은 온건한 코미디언의 지시에 따라 약간의 조정을 받고, 다른 팟캐스터의 대화를 보고, 수상한 학자로부터 인생 조언을 받고, 다른 인플루언서의 주변부 원칙이고, 머지 않아 그들은 증오심 표현에 대한 YouTube의 규칙을 무시하는 누군가를 보고 있습니다. 아니면 연구가 옳았을 수도 있고, 사람들을 가파른 비탈로 몰아가는 추천 엔진이 아닐 수도 있습니다.

더 흥미로운 점은 적어도 NYU 센터에 따르면 YouTube가 사용자의 정치적 성향에 관계없이 사용자에게 전반적으로 적당히 보수적인 콘텐츠를 추천하는 방향으로 기울고 있다는 것입니다.

팀은 그 이유를 잘 모릅니다. “우리 데이터를 통해 추천 알고리즘이 수행하는 역할을 분리할 수 있지만 블랙박스 내부를 들여다볼 수는 없습니다. 이러한 명확성이 없으면 알고리즘이 보수주의자에게 더 강력하게 작동하는지 여부를 결정할 수 없습니다. 보수주의자가 진보주의자보다 이념적으로 일치하는 내용을 더 요구하기 때문인지 아니면 다른 이유 때문입니다.”라고 그들은 말했습니다.

우파는 우파 콘텐츠를 지속적으로 시청할 가능성이 더 높고 좌파는 더 다양한 콘텐츠(자신이 동의하는 내용과 분노를 공유하는 내용)를 볼 가능성이 더 높거나 단순히 비디오보다 보수적인 동영상이 더 많을 수 있습니다. 유튜브의 자유주의자들. YouTube 추천은 비디오 라이브러리를 반영하고, 청중의 수요를 충족시키며, 항상 원하는 참여를 유도하기 위해 오른쪽으로 당겨질 수 있습니다.

트위터에서도 유사한 효과가 관찰되었습니다. 추천 알고리즘은 다음과 같은 경향이 있습니다. 부스트 포스트 좌익보다 우익 정치인과 뉴스 출판물에서 더 많이. NYU 같은 팀의 정치학자 이전에 댓글을 남김 보수적인 콘텐츠가 더 많은 분노를 불러일으키고 따라서 더 많은 참여로 이어질 가능성이 더 높기 때문일 수 있습니다.

그건 그렇고, 우리는 또한 우익의 견해가 Big Tech에 의해 인터넷에서 일상적으로 불공정하게 검열되거나 숨겨진다는 것이 보수적인 이야기라는 점을 이전에 언급했습니다. 보수적인 정치 커뮤니케이션이 잘못된 정보로 인식되고 표시되기 때문일 수 있습니다. 더 자주 반대 메시지보다

YouTube나 Google의 누구도 CSMP 연구 결과에 응답할 수 없었습니다. ®

타임 스탬프 :

더보기 등록