Cơ quan giám sát quyền riêng tư kêu gọi các công ty bỏ phần mềm AI phân tích cảm xúc PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Cơ quan giám sát quyền riêng tư kêu gọi các công ty bỏ phần mềm AI phân tích cảm xúc

Các công ty nên suy nghĩ kỹ trước khi triển khai các hệ thống phân tích cảm xúc do AI cung cấp dễ bị thành kiến ​​hệ thống và các lỗi khác, Văn phòng Ủy viên Thông tin của Vương quốc Anh (ICO) cảnh báo trong tuần này.

Cơ quan giám sát cho biết thêm, các tổ chức sẽ phải đối mặt với cuộc điều tra nếu họ gây áp lực và sử dụng công nghệ phụ này khiến mọi người gặp rủi ro.

Các thuật toán máy học nhằm mục đích dự đoán tâm trạng và phản ứng của một người sử dụng thị giác máy tính để theo dõi ánh mắt, chuyển động trên khuôn mặt và xử lý âm thanh để đánh giá độ lệch và cảm xúc tổng thể. Như người ta có thể tưởng tượng, nó không nhất thiết phải chính xác hoặc công bằng và có thể có các vấn đề về quyền riêng tư khi xử lý dữ liệu để đào tạo và suy luận.

Thật vậy, phó ủy viên ICO Stephen Bonner cho biết công nghệ này không phải là tuyệt vời, dẫn đến sai lệch hệ thống, không chính xác hoặc phân biệt đối xử với các nhóm xã hội cụ thể. “Sự phát triển trong thị trường AI cảm xúc và sinh trắc học còn chưa trưởng thành. Chúng có thể chưa hoạt động hoặc thực sự là chưa bao giờ, ”anh nói trong một tuyên bố. 

“Trong khi cơ hội hiện hữu, rủi ro hiện tại lớn hơn. Tại ICO, chúng tôi lo ngại rằng việc phân tích dữ liệu không chính xác có thể dẫn đến các giả định và đánh giá về một người không chính xác và dẫn đến phân biệt đối xử, ”tuyên bố của ông tiếp tục.

Bonner lưu ý rằng phần mềm phân tích cảm xúc thường được ghép nối với các hệ thống sinh trắc học, thu thập và lưu trữ nhiều loại thông tin cá nhân hơn là hình ảnh khuôn mặt. Các nhà cung cấp phần mềm thường không minh bạch về cách dữ liệu cá nhân này được xử lý hoặc lưu. 

“Các triển khai sinh trắc học bền vững duy nhất sẽ là những triển khai có đầy đủ chức năng, có trách nhiệm và được hỗ trợ bởi khoa học,” ông nói. "Như hiện tại, chúng tôi vẫn chưa thấy bất kỳ cảm xúc nào mà công nghệ AI phát triển theo cách đáp ứng các yêu cầu bảo vệ dữ liệu và có nhiều câu hỏi chung hơn về tính tương xứng, công bằng và minh bạch trong lĩnh vực này."

Đây có vẻ là một cách nói lịch sự: bạn chỉ nên sử dụng các mô hình AI đọc cảm xúc hoạt động như ICO mong đợi và những mô hình đó không tồn tại, vì vậy bạn chỉ nên dừng những gì bạn đang làm.

Cơ quan giám sát quyền riêng tư dữ liệu của Anh dự kiến ​​sẽ công bố một báo cáo chi tiết cách các công ty sẽ xử lý dữ liệu sinh trắc học, bao gồm nhận dạng khuôn mặt, nhận dạng vân tay và nhận dạng giọng nói vào mùa xuân năm sau.

“ICO sẽ tiếp tục xem xét thị trường, xác định các bên liên quan đang tìm cách tạo hoặc triển khai các công nghệ này và giải thích tầm quan trọng của việc tuân thủ và bảo mật dữ liệu nâng cao, đồng thời khuyến khích sự tin tưởng và tự tin vào cách các hệ thống này hoạt động,” Bonner nói thêm.

Các chuyên gia đã gióng lên hồi chuông cảnh báo về phân tích tình cảm và cảm xúc trong nhiều năm. Cảm xúc là chủ quan và rất khó để diễn giải chúng một cách chính xác. Con người thường không thể làm điều này một cách hiệu quả cho bản thân hoặc cho người khác, chứ đừng nói đến máy móc. ®

Dấu thời gian:

Thêm từ Đăng ký