Bot cảnh sát AI có phải là sự thay thế an toàn hơn trong tương lai không? Thông tin dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Bot cảnh sát AI có phải là sự thay thế an toàn hơn trong tương lai không?

Trí tuệ nhân tạo (AI) đang nhanh chóng trở thành một công cụ có giá trị trong hầu hết các ngành công nghiệp. Các hệ thống phần mềm này có thể sắp xếp lượng dữ liệu khổng lồ trong một khoảng thời gian ngắn mà một nhà phân tích con người cần làm để làm điều tương tự.

Hệ thống AI đã trở nên quan trọng trong chăm sóc sức khỏe và nghiên cứu dược phẩm, bán lẻ, tiếp thị, tài chính, v.v. Một số người đề xuất thậm chí còn cân nhắc việc sử dụng công nghệ này trong việc thực thi pháp luật. Liệu robot cảnh sát AI có phải là sự thay thế an toàn hơn trong tương lai?

“Ứng dụng phổ biến nhất của AI trong công việc của cảnh sát hiện nay là nhận dạng khuôn mặt – theo dõi khuôn mặt của các cá nhân ở những khu vực có nhiều phương tiện giao thông như ga tàu hoặc các sự kiện quan trọng.” 

Lợi ích của AI trong công việc của Cảnh sát

Toàn bộ thế giới tràn ngập công nghệ. Mọi thứ từ điện thoại di động trong túi hoặc ví cho đến công nghệ thông minh giúp cuộc sống gia đình trở nên dễ dàng hơn đều dựa trên một trong nhiều ngôn ngữ lập trình cung cấp năng lượng cho thế giới. Công việc của cảnh sát hiện đại cũng không ngoại lệ. Việc sử dụng AI phổ biến nhất trong công việc của cảnh sát hiện nay là nhận dạng khuôn mặt – giám sát khuôn mặt của các cá nhân ở những khu vực có nhiều người qua lại, như ga xe lửa hoặc các sự kiện quan trọng.

Camera gắn trên cơ thể thu thập số lượng lớn cảnh quay video, tất cả đều có thể được sử dụng làm bằng chứng phạm tội. Mặc dù có thể xem lại đoạn video này theo cách thủ công nhưng đây không phải là một lựa chọn hiệu quả. Hệ thống AI có thể sắp xếp các cảnh quay, tìm kiếm mẫu hoặc xác định thông tin trong một khoảng thời gian ngắn mà nhà phân tích con người cần để hoàn thành nhiệm vụ tương tự.

“Robot có thể trở thành công cụ có giá trị để thu thập bằng chứng. Robot không có tóc hoặc tế bào da có thể làm ô nhiễm hiện trường vụ án, đảm bảo chuỗi hành trình sản phẩm tốt hơn” 

Axon, nhà sản xuất máy ảnh gắn trên cơ thể cảnh sát lớn nhất đất nước, đã thử nghiệm một chương trình như vậy vào năm 2014, tuyên bố rằng AI của họ có thể mô tả chính xác các sự kiện được chiếu trong cảnh quay trên cơ thể. Năm 2019, họ quyết định không thương mại hóa việc lập trình. Thử nghiệm cho thấy các chương trình cung cấp nhận dạng không đáng tin cậy và không đồng đều giữa các chủng tộc và sắc tộc khác nhau.

Robot có thể trở thành công cụ có giá trị để thu thập bằng chứng Robot không có tóc hoặc tế bào da có thể gây ô nhiễm hiện trường vụ án, đảm bảo chuỗi hành trình sản phẩm tốt hơn. Điều đó cũng có nghĩa là sẽ có ít sai sót hơn có thể ngăn cản việc kết án hoặc khiến một người vô tội phải ngồi tù vì bị buộc tội về một tội mà họ không phạm phải.

Thật không may, robot bảo mật hiện không phải là công cụ thông minh nhất trong kho công cụ. Thay vào đó, một robot an ninh tên Steve đã được lập trình để tuần tra khu phức hợp Cảng Washington ven sông ở Washington, DC. nó lăn xuống cầu thang và cố gắng dìm mình xuống một đài phun nước.

“Cần phải có sự giám sát toàn diện để đưa bất kỳ robot cảnh sát hỗ trợ AI nào vào lực lượng” 

Mối nguy hiểm của Bot cảnh sát AI

Rủi ro đáng kể nhất nằm ở chỗ con người vẫn lập trình các thiết bị này và do đó, phải chịu sự thiên vị của con người. Làm thế nào các lập trình viên có thể tạo ra một hệ thống AI không thiên vị khi dạy các mạng này cách suy nghĩ và hoàn thành nhiệm vụ của mình? Đó cũng chính là vấn đề mà xe tự lái đang gặp phải đối mặt với vấn đề xe đẩy bài tập tư duy. Họ dạy hệ thống giết một người để cứu năm người hay đơn giản là không quyết định?

Cần phải có sự giám sát toàn diện để đưa bất kỳ robot cảnh sát hỗ trợ AI nào vào lực lượng. Nếu không có sự giám sát này, sẽ có rất ít hoặc không có gì ngăn cản ai đó lập trình các hệ thống này để nhắm mục tiêu vào các cá nhân BIPOC. Các công cụ được thiết kế để cứu mạng sống và ngăn chặn tội phạm có thể dễ dàng bị biến thành công cụ áp bức.

Google đã cho thấy khả năng này vào năm 2017 với một trong những phiên bản đầu tiên của AI xử lý ngôn ngữ tự nhiên của họ. Kỳ thị đồng tính là được viết vào chương trình cốt lõi của nó, đưa ra xếp hạng tiêu cực cho bất kỳ tìm kiếm nào có liên quan đến từ “đồng tính nam”. Google đã khắc phục sự cố và xin lỗi vì sự thiên vị được lập trình. Tuy nhiên, lỗi này cho thấy công nghệ này dễ bị lạm dụng như thế nào, ngay cả khi bạn không nhận thức được sự thiên vị.

Trí tuệ nhân tạo từ lâu đã trở thành nhân vật phản diện được ưa chuộng trong ngành giải trí tương lai. Khán giả đã thấy nó xuất hiện trong nhiều loạt phim trong nhiều năm và hầu như tất cả những nhân vật phản diện này đều có một điểm chung: AI xác định rằng con người không còn khả năng tự chăm sóc bản thân nên chúng thực hiện các biện pháp cực đoan – bao gồm cả việc tiêu diệt loài người – để “bảo vệ” nhân loại khỏi chính nó.

Các robot cảnh sát AI có thể sẽ không đi xa đến thế, nhưng không phải AI gây ra nỗi sợ hãi mà là mối lo ngại rằng công nghệ này có thể bị khai thác, khiến các cộng đồng dễ bị tổn thương gặp rủi ro.

Tạo ra một tương lai an toàn hơn

Trí tuệ nhân tạo và các công cụ mà nó hỗ trợ đang trở thành một phần trong cuộc sống hàng ngày của chúng ta, nhưng điều đó không có nghĩa là công nghệ này không có rủi ro. AI có thể giúp bảo vệ con người bằng cách ngăn chặn hoặc giải quyết tội phạm, nhưng nó có thể dễ dàng bị khai thác để gây hại cho BIPOC và cộng đồng.

Robot cảnh sát AI có lẽ là làn sóng của tương lai, nhưng chúng cần rất nhiều nỗ lực trước khi cộng đồng có thể tin tưởng chúng để bảo vệ mọi người bất kể màu da hay tín ngưỡng.

Ngoài ra, đọc Tương lai của robot trong lĩnh vực nội địa

Dấu thời gian:

Thêm từ Công nghệ AIIOT