YouTube thích đề xuất các video thận trọng bất kể niềm tin của bạn là PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

YouTube thích giới thiệu các vids bảo thủ bất kể niềm tin của bạn là gì

Thuật toán đề xuất của YouTube không chỉ nhẹ nhàng bẫy người xem trong buồng dội âm nhẹ mà còn có nhiều khả năng đề xuất các video có khuynh hướng bảo thủ bất kể quan điểm chính trị của bạn như thế nào.

Đó là theo một nghiên cứu ra khỏi Trung tâm Chính trị và Truyền thông Xã hội (CSMP) của Đại học New York đã được Brookings nêu bật trong tháng này.

Mạng xã hội sống và chết bởi các thuật toán đề xuất của chúng: chúng được thiết kế để giữ khách truy cập trên các trang web và ứng dụng bằng cách cung cấp cho họ nội dung giúp họ thu hút và nếu điều đó thúc đẩy sự tương tác - chia sẻ liên kết với người khác, nhận xét, đăng ký, ủng hộ, v.v. - tốt hơn hết. Tài liệu gây tranh cãi hoặc gây tranh cãi là hoàn hảo cho việc này, vì nó có khả năng thu hút nhiều lượt chia sẻ và bình luận hơn, và do đó khiến nhiều người nghiện hơn.

Do đó, những nguồn cấp dữ liệu này được cá nhân hóa cho từng cư dân mạng dựa trên sở thích của họ; đó là điều cần thiết để vẽ và khóa chúng vào. Buồng tiếng vang hình thành nơi mọi người đăng và chia sẻ nội dung mà họ có chung sở thích và bỏ qua bất kỳ điều gì trái với các nguyên tắc và thái độ đó. Điều này dẫn đến một vòng phản hồi tích cực về mức độ tương tác trong nhóm, củng cố niềm tin và tăng thời gian - và lượt xem quảng cáo - trong ứng dụng hoặc trang web.

Đây là một số câu hỏi. Các thuật toán khuyến nghị này cung cấp năng lượng cho các buồng dội âm này ở cấp độ nào? Liệu các thuật toán có đẩy người dùng xuống những con đường tư tưởng ngày càng hạn hẹp, cực đoan hóa cư dân mạng khi họ đi sâu hơn vào một lỗ hổng trực tuyến? Phần mềm có thể biến mọi người thành chủ nghĩa cực đoan? Có sự thiên vị mang tính hệ thống trong các khuyến nghị không?

Để giải quyết vấn đề này, một nhóm các nhà nghiên cứu tại CSMP đã nghiên cứu tác động của các đề xuất trên YouTube bằng cách yêu cầu 1,063 người Mỹ trưởng thành, được tuyển dụng thông qua quảng cáo Facebook, cài đặt một tiện ích mở rộng trình duyệt giúp họ theo dõi trải nghiệm khi duyệt trang web do Google sở hữu.

Nó đẩy người dùng vào phạm vi nội dung tư tưởng ngày càng hạn hẹp trong cái mà chúng ta có thể gọi là bằng chứng về một buồng dội lại ý thức hệ (rất) nhẹ

Những người tham gia được yêu cầu chọn một video bắt đầu trên YouTube trong số 25 video, được tạo thành từ hỗn hợp nội dung chính trị và phi chính trị, sau đó đi theo một lộ trình nhất định thông qua các video mà YouTube đề xuất họ xem tiếp theo.

Các cư dân mạng được yêu cầu luôn nhấp vào đề xuất đầu tiên, thứ hai, thứ ba, thứ tư hoặc thứ năm mỗi lần; vị trí đề xuất đã được chọn ngẫu nhiên cho mỗi người ngay từ đầu. Việc xem qua các video đề xuất của YouTube này được mỗi người tham gia lặp lại 20 lần, trong khoảng thời gian từ tháng 2020 đến tháng XNUMX năm XNUMX.

Tiện ích mở rộng ghi lại các video mà YouTube đề xuất ở mọi giai đoạn và do đó các video đã được xem. Nhóm nghiên cứu đã chấm điểm quan điểm tư tưởng của mỗi vid, dựa trên việc nó theo khuynh hướng bảo thủ hay tự do hơn, để đo lường tác động của buồng dội âm và bất kỳ thành kiến ​​tiềm ẩn nào trong hệ thống và để xem liệu người xem có đang được đề xuất nội dung ngày càng cực đoan hơn hay không.

Cách xác định điểm tư tưởng đó là một điều rất quan trọng đối với điều này, vì vậy chúng tôi sẽ tin tưởng trong giây lát rằng nó rất mạnh mẽ. Những người tham gia cũng được khảo sát về nhân khẩu học của họ.

“Chúng tôi nhận thấy rằng thuật toán đề xuất của YouTube không dẫn đại đa số người dùng đến những lỗ hổng của chủ nghĩa cực đoan, mặc dù nó đẩy người dùng vào phạm vi nội dung tư tưởng ngày càng hạn hẹp trong cái mà chúng tôi có thể gọi là bằng chứng về một buồng dội âm tư tưởng (rất) nhẹ,” học giả tiết lộ trong một báo cáo cho Viện Brookings.

“Về trung bình, chúng tôi cũng nhận thấy rằng thuật toán đề xuất của YouTube kéo người dùng về phía bên phải của phạm vi chính trị một chút, mà chúng tôi tin rằng đây là một phát hiện mới.”

Thuật toán kéo người dùng sang bên phải của phổ chính trị một chút

Phần tóm tắt của bài báo của họ cho thấy rõ rằng sự va chạm sang phải này xảy ra "bất kể ý thức hệ" của người xem YouTube.

Nghiên cứu cho thấy rằng người dùng được thúc đẩy xem nhiều phương tiện truyền thông cánh hữu hoặc cánh tả hơn, tùy thuộc vào điểm xuất phát của họ. Do đó, các đề xuất của YouTube sẽ có vẻ hơi lệch sang phải cho những người bảo thủ và sang trái cho những người tiến bộ. Sự thay đổi về sức mạnh tư tưởng của các đề xuất này bắt đầu nhỏ và tăng lên khi người xem tuân theo các đề xuất của thuật toán lâu hơn. Nói cách khác, nếu bạn (ví dụ) xem những gì được coi là tài liệu để lại ở mức độ vừa phải, theo thời gian, các đề xuất của bạn sẽ trôi về bên trái nhiều hơn, nhưng chỉ rất nhẹ và dần dần, theo nghiên cứu này.

Các nhà nghiên cứu lập luận rằng các khoang phản xạ ý thức hệ nhẹ tồn tại trên YouTube. Điều đó sẽ có ý nghĩa đối với YouTube vì nó đảm bảo người xem luôn tương tác và dán mắt vào trang web. Đáng chú ý, dường như có rất ít hoặc không có bằng chứng cho thấy người xem đang nhanh chóng chuyển sang nội dung cực đoan hơn về mặt tư tưởng.

Điều đó có thể trái ngược với kinh nghiệm của chính bạn, vì đôi khi bạn có thể thấy mọi người bị kéo xuống hố thỏ như thế nào. Một người bắt đầu bằng một đoạn clip về một người dẫn chương trình trò chuyện vô hại, tiếp theo họ được hướng dẫn xem một chút bởi một diễn viên hài vừa phải, sau đó họ thấy mình đang xem một cuộc trò chuyện từ một podcaster thay thế, sau đó họ nhận được lời khuyên về cuộc sống từ một học giả có vấn đề, thì đó là những nguyên tắc ngoài lề của một người có ảnh hưởng khác và chẳng bao lâu, họ đang xem ai đó lách quy tắc của YouTube về lời nói căm thù. Hoặc có thể nghiên cứu là đúng, và nó không phải là động cơ khuyến nghị thúc đẩy mọi người xuống dốc.

Điều thú vị hơn, có lẽ, là YouTube nhìn chung nghiêng về việc đề xuất nội dung có chừng mực vừa phải cho người dùng bất kể khuynh hướng chính trị của họ, ít nhất là theo trung tâm NYU.

Nhóm nghiên cứu không chắc chắn tại sao. “Mặc dù dữ liệu của chúng tôi cho phép chúng tôi tách biệt vai trò của thuật toán khuyến nghị, nhưng chúng tôi không thể xem xét bên trong hộp đen. Nếu không có sự rõ ràng này, chúng tôi không thể xác định liệu thuật toán có hoạt động mạnh mẽ hơn đối với những người bảo thủ hay không bởi vì họ yêu cầu nội dung phù hợp về mặt tư tưởng hơn những người theo chủ nghĩa tự do, hoặc vì một số lý do khác, ”họ viết trong bài báo.

Có thể là những người cánh hữu có nhiều khả năng thường xuyên xem nội dung của cánh hữu hơn và những người cánh tả có nhiều khả năng xem những nội dung đa dạng hơn - những thứ họ đồng ý và những thứ họ giận dữ chia sẻ - hoặc chỉ đơn giản là có những video bảo thủ hơn những người tự do trên YouTube. Các đề xuất của YouTube có thể được kéo sang bên phải để phản ánh thư viện video, đáp ứng nhu cầu của khán giả và thúc đẩy mức độ tương tác mong muốn.

Một hiệu ứng tương tự cũng đã được quan sát thấy trên Twitter. Thuật toán đề xuất của nó có xu hướng tăng bài đăng từ các chính trị gia cánh hữu và các ấn phẩm tin tức nhiều hơn cánh tả. Các nhà khoa học chính trị từ cùng một nhóm tại NYU đã nhận xét trước đây đó có thể là do nội dung thận trọng có nhiều khả năng tạo ra nhiều sự phẫn nộ hơn và do đó, dẫn đến nhiều người tham gia hơn.

Nhân tiện, chúng tôi cũng đã lưu ý trước đây rằng đó là một quan điểm bảo thủ rằng các quan điểm cánh hữu thường bị Big Tech kiểm duyệt hoặc ẩn đi trên internet một cách thường xuyên. Đó có thể là do truyền thông chính trị bảo thủ bị xem và gắn cờ là thông tin sai lệch thương xuyên hơn hơn là thông điệp đối lập.

Không ai ở YouTube hoặc Google có thể phản hồi các phát hiện của nghiên cứu CSMP. ®

Dấu thời gian:

Thêm từ Đăng ký