Meta đâm sầm với 8 vụ kiện cho rằng mạng xã hội làm tổn thương trẻ em PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Meta bị tám vụ kiện cáo buộc mạng xã hội làm tổn thương trẻ em

Tóm lại Công ty mẹ của Facebook và Instagram, Meta, đã phải đối mặt với không chỉ một, không phải hai mà là tám vụ kiện khác nhau cáo buộc thuật toán truyền thông xã hội của họ gây ra tổn hại thực sự cho người dùng trẻ trên khắp Hoa Kỳ. 

Các khiếu nại được đệ trình vào tuần trước cho rằng các nền tảng truyền thông xã hội của Meta đã được thiết kế để gây nghiện một cách nguy hiểm, khiến trẻ em và thanh thiếu niên xem nội dung làm tăng nguy cơ rối loạn ăn uống, tự tử, trầm cảm và rối loạn giấc ngủ. 

“Việc sử dụng mạng xã hội trong giới trẻ nên được coi là nguyên nhân chính gây ra cuộc khủng hoảng sức khỏe tâm thần mà chúng ta phải đối mặt ở nước này,” nói Andy Birchfield, một luật sư đại diện cho Công ty Luật Beasley Allen, đứng đầu các vụ việc, trong một tuyên bố.

“Những ứng dụng này lẽ ra có thể được thiết kế để giảm thiểu mọi tác hại tiềm tàng, nhưng thay vào đó, một quyết định được đưa ra nhằm khiến thanh thiếu niên nghiện mạnh dưới danh nghĩa lợi nhuận doanh nghiệp. Đã đến lúc công ty này phải thừa nhận mối lo ngại ngày càng tăng xung quanh tác động của mạng xã hội đối với sức khỏe tâm thần và hạnh phúc của bộ phận dễ bị tổn thương nhất này trong xã hội chúng ta, đồng thời thay đổi các thuật toán và mục tiêu kinh doanh đã gây ra rất nhiều thiệt hại.”

Các vụ kiện đã được nộp lên các tòa án liên bang ở Texas, Tennessee, Colorado, Delaware, Florida, Georgia, Illinois và Missouri, theo cho Bloomberg. 

Phương tiện tự lái thực sự an toàn như thế nào?

Rất khó để đánh giá độ an toàn của phần mềm xe tự lái như Autopilot của Tesla vì có rất ít dữ liệu được công khai và các số liệu được sử dụng để đánh giá như vậy là sai lệch. 

Các công ty phát triển phương tiện tự lái thường báo cáo số km mà công nghệ tự lái đã đi được trước khi người lái xe phải đảm nhiệm để ngăn ngừa lỗi hoặc va chạm. Ví dụ, dữ liệu cho thấy ít tai nạn xảy ra hơn khi chế độ Autopilot của Tesla được kích hoạt. Nhưng điều đó không nhất thiết có nghĩa là nó an toàn hơn, các chuyên gia lập luận. 

Chế độ lái tự động có nhiều khả năng được điều chỉnh để lái xe trên đường cao tốc, nơi các điều kiện xử lý phần mềm ít phức tạp hơn so với việc di chuyển quanh một thành phố đông đúc. Tesla và các doanh nghiệp ô tô khác không chia sẻ dữ liệu về việc lái xe trên những con đường cụ thể để so sánh tốt hơn. 

Noah Goodall, nhà nghiên cứu tại Hội đồng Nghiên cứu Vận tải Virginia, cho biết: “Chúng tôi biết rằng những chiếc ô tô sử dụng Autopilot ít gặp tai nạn hơn so với khi không sử dụng Autopilot”. nói với Thời báo New York. “Nhưng có phải họ đang được điều khiển theo cùng một cách, trên cùng một con đường, vào cùng một thời điểm trong ngày, bởi cùng một người lái xe?”

Cơ quan Quản lý An toàn Giao thông Đường cao tốc Quốc gia đã yêu cầu các công ty báo cáo các vụ tai nạn nghiêm trọng liên quan đến xe ô tô tự lái trong vòng 24 giờ sau khi vụ tai nạn xảy ra, vào năm ngoái. Nhưng vẫn chưa có thông tin nào được công khai.

AI mới nổi bị cáo buộc lén lút sử dụng sức lao động của con người đằng sau công nghệ tự động

Nate, một công ty khởi nghiệp trị giá hơn 300 triệu USD tuyên bố sử dụng AI để tự động điền thông tin thanh toán của người mua hàng trên các trang web bán lẻ, thực tế trả tiền cho công nhân để nhập dữ liệu theo cách thủ công với giá 1 USD.

Mua đồ trên mạng có thể rất tẻ nhạt. Bạn phải nhập tên, địa chỉ, chi tiết thẻ tín dụng nếu trang web chưa lưu thông tin. Nate được xây dựng để giúp cư dân mạng tránh phải làm điều này mỗi khi họ ghé thăm một cửa hàng trực tuyến. Được mô tả là một ứng dụng AI, Nate tuyên bố nó sử dụng các phương pháp tự động để điền dữ liệu cá nhân sau khi người tiêu dùng đặt hàng.

Nhưng phần mềm này rất khó để phát triển, xem xét sự kết hợp khác nhau của các nút mà các thuật toán cần phải nhấn và các biện pháp phòng ngừa được áp dụng trên các trang web để ngăn chặn các chương trình và bộ điều chỉnh tỷ lệ. Để thử và thu hút nhiều người tiêu dùng hơn đến với ứng dụng, Nate đã cung cấp cho mọi người 50 đô la để chi tiêu trực tuyến tại các cửa hàng như Best Buy và Walmart. Tuy nhiên, công ty mới thành lập đã phải vật lộn để công nghệ của họ hoạt động để hoàn thành chúng đúng cách. 

Cách tốt nhất để làm điều đó? Làm giả nó. Thay vào đó, Nate chuyển sang thuê nhân công ở Philippines để nhập thông tin cá nhân của người tiêu dùng theo cách thủ công; đơn đặt hàng đôi khi được hoàn thành vài giờ sau khi được đặt, theo tới Thông tin. Người ta cáo buộc rằng khoảng 60 đến 100 phần trăm đơn đặt hàng được xử lý thủ công. Người phát ngôn của công ty mới nổi cho biết báo cáo này “không chính xác và những tuyên bố đặt câu hỏi về công nghệ độc quyền của chúng tôi là hoàn toàn vô căn cứ”.

DARPA muốn AI đáng tin cậy hơn

Chi nhánh nghiên cứu quân sự của Mỹ, DARPA, đã khởi động một chương trình mới để tài trợ cho việc phát triển các thuật toán AI biểu tượng thần kinh kết hợp với hy vọng rằng công nghệ này sẽ dẫn đến các hệ thống đáng tin cậy hơn.

Học sâu hiện đại thường được gọi là “hộp đen”, hoạt động bên trong của nó không rõ ràng và các chuyên gia thường không hiểu làm thế nào mạng lưới thần kinh có thể đạt được đầu ra với một đầu vào cụ thể. Việc thiếu minh bạch có nghĩa là khó diễn giải kết quả, gây rủi ro khi triển khai trong một số trường hợp. Một số người tin rằng việc kết hợp các kỹ thuật suy luận biểu tượng lỗi thời truyền thống hơn có thể làm cho các mô hình trở nên đáng tin cậy hơn. 

“Việc thúc đẩy tư duy và cách tiếp cận mới trong lĩnh vực này sẽ giúp đảm bảo rằng các hệ thống tự động sẽ hoạt động an toàn và hoạt động như dự kiến,” nói Sandeep Neema, người quản lý chương trình của chương trình Lý luận và Học tập Biểu tượng Thần kinh được Đảm bảo mới của DARPA. “Điều này sẽ không thể thiếu đối với niềm tin, là chìa khóa giúp Bộ Quốc phòng áp dụng thành công quyền tự chủ.”

Sáng kiến ​​này sẽ tài trợ cho việc nghiên cứu các kiến ​​trúc lai kết hợp giữa các hệ thống biểu tượng và AI hiện đại. DARPA đặc biệt quan tâm đến các ứng dụng liên quan đến quân sự, chẳng hạn như một mô hình có thể phát hiện xem các thực thể là thân thiện, đối địch hay trung lập, chẳng hạn, cũng như phát hiện các khu vực nguy hiểm hoặc an toàn trong chiến đấu. ®

Dấu thời gian:

Thêm từ Đăng ký