Phòng thí nghiệm của cảnh sát muốn những bức ảnh thời thơ ấu hạnh phúc của bạn huấn luyện AI phát hiện hành vi lạm dụng trẻ em PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Phòng thí nghiệm cảnh sát muốn những bức ảnh thời thơ ấu hạnh phúc của bạn để huấn luyện AI phát hiện lạm dụng trẻ em

cập nhật Cảnh sát liên bang của Úc và Đại học Monash đang yêu cầu cư dân mạng gửi ảnh trẻ em của họ để đào tạo một thuật toán máy học để phát hiện lạm dụng trẻ em trong các bức ảnh.

Các nhà nghiên cứu đang tìm cách thu thập hình ảnh của những người từ 17 tuổi trở xuống trong các tình huống an toàn; họ không muốn bất kỳ hình ảnh khỏa thân nào, ngay cả khi đó là một bức ảnh tương đối vô hại như một đứa trẻ đang tắm. Chiến dịch huy động nguồn lực từ cộng đồng, được mệnh danh là Hình ảnh của tôi có vấn đề, dành cho những người từ 18 tuổi trở lên, những người có thể đồng ý sử dụng ảnh của mình cho mục đích nghiên cứu.

Tất cả các hình ảnh sẽ được tích hợp thành một tập dữ liệu do các học giả Monash quản lý nhằm cố gắng đào tạo một mô hình AI để phân biệt sự khác biệt giữa trẻ vị thành niên trong môi trường bình thường và tình huống bóc lột, không an toàn. Về lý thuyết, phần mềm này có thể giúp cơ quan thực thi pháp luật xác định chính xác hơn một cách tự động và nhanh chóng tài liệu lạm dụng tình dục trẻ em (hay còn gọi là CSAM) trong số hàng nghìn bức ảnh đang được điều tra, tránh việc các nhà phân tích con người kiểm tra từng bức ảnh.

Xem lại tài liệu khủng khiếp này có thể là một quá trình chậm

Cảnh sát cấp cao hàng đầu của Cảnh sát Liên bang Úc, Janis Dalins, cho biết AI có khả năng giúp xác định nạn nhân và cảnh báo các tài liệu bất hợp pháp mà trước đây các sĩ quan chưa biết đến.

Ông nói trong tuần này.

Dalins cũng là đồng giám đốc của Phòng thí nghiệm AiLECS, sự hợp tác nghiên cứu giữa các học giả tại Khoa Công nghệ Thông tin của Monash và AFP đang điều hành dự án My Pictures Matter.

Ông nói thêm: “Việc xem xét tài liệu khủng khiếp này có thể là một quá trình chậm và việc tiếp xúc liên tục có thể gây ra tình trạng đau khổ tâm lý đáng kể cho các nhà điều tra. “Các sáng kiến ​​của AiLECS Lab sẽ hỗ trợ các sĩ quan cảnh sát và trẻ em mà chúng tôi đang cố gắng bảo vệ; và các nhà nghiên cứu đã nghĩ ra một cách sáng tạo để phát triển công nghệ đằng sau những sáng kiến ​​như vậy về mặt đạo đức ”.

Cách dễ nhất để biên dịch một tập dữ liệu lớn về hình ảnh là tìm kiếm trên mạng Internet mở. Tuy nhiên, như một số mô hình AI mới nhất - chẳng hạn như OpenAI's DALL · E 2 và Google Ảnh - đã cho thấy, chất lượng của dữ liệu này rất khó kiểm soát. Hình ảnh sai lệch hoặc không phù hợp có thể len ​​lỏi vào tập dữ liệu, làm cho các mô hình có vấn đề và có khả năng kém hiệu quả hơn.

Thay vào đó, nhóm tại AiLECS tin rằng chiến dịch tìm nguồn cung ứng cộng đồng của họ cung cấp một cách thu thập ảnh trẻ em dễ dàng hơn và có đạo đức hơn. “Để phát triển AI có thể xác định hình ảnh bóc lột, chúng tôi cần một số lượng rất lớn ảnh trẻ em trong bối cảnh 'an toàn' hàng ngày để có thể đào tạo và đánh giá các mô hình AI nhằm chống lại nạn bóc lột trẻ em", Campbell Wilson, đồng giám đốc AiLECS và một phó giáo sư tại Đại học Monash, cho biết.

Bằng cách lấy ảnh từ người lớn, thông qua sự đồng ý có hiểu biết, chúng tôi đang cố gắng xây dựng các công nghệ có trách nhiệm và minh bạch về mặt đạo đức

“Nhưng việc tìm nguồn cung cấp những hình ảnh này từ internet là một vấn đề khi không có cách nào biết được những đứa trẻ trong những bức ảnh đó có thực sự đồng ý cho những bức ảnh của chúng được tải lên hoặc được sử dụng để nghiên cứu hay không. Bằng cách lấy ảnh từ người lớn, thông qua sự đồng ý có hiểu biết, chúng tôi đang cố gắng xây dựng các công nghệ có trách nhiệm và minh bạch về mặt đạo đức ”.

Mọi người chỉ cần gửi ảnh cá nhân và địa chỉ email như một phần của chiến dịch. Nina Lewis, trưởng dự án và nhà nghiên cứu tại phòng thí nghiệm, cho biết họ sẽ không ghi lại bất kỳ loại thông tin cá nhân nào khác. Chúng tôi được biết các địa chỉ email sẽ được lưu trữ trong một cơ sở dữ liệu riêng biệt. 

“Hình ảnh và dữ liệu liên quan sẽ không bao gồm bất kỳ thông tin nhận dạng nào, đảm bảo rằng hình ảnh được các nhà nghiên cứu sử dụng không thể tiết lộ bất kỳ thông tin cá nhân nào về những người được mô tả,” cô nói. Những người tham gia sẽ được cập nhật ở mỗi giai đoạn của dự án và có thể yêu cầu xóa hình ảnh của họ khỏi tập dữ liệu nếu họ muốn.

Mục tiêu cao cả của dự án không phải là bất khả thi về mặt kỹ thuật và có nhiều tham vọng, vì vậy chúng tôi rất nóng lòng muốn xem kết quả, trước những thách thức mà hệ thống nhận dạng hình ảnh phải đối mặt, chẳng hạn như thiên vịcác cuộc tấn công bất lợi trong số khác hạn chế.

Đăng ký đã hỏi Đại học Monash để biết thêm chi tiết. ®

Cập nhật để thêm vào ngày 6 tháng XNUMX

Tiến sĩ Lewis của Monash đã liên hệ để cung cấp thêm một số chi tiết. Cô ấy cho chúng tôi biết mục đích là xây dựng bộ dữ liệu gồm 100,000 hình ảnh độc đáo để đào tạo mô hình AI.

Cô nói thêm: “Chúng tôi sẽ sử dụng những bức ảnh này làm dữ liệu đào tạo và thử nghiệm cho các thuật toán mới và hiện có nhằm xác định và phân loại hình ảnh 'an toàn' của trẻ em. “Chúng tôi cũng sẽ nghiên cứu cách áp dụng những công nghệ đó để đánh giá xem liệu các tệp kỹ thuật số có chứa hình ảnh 'không an toàn' về trẻ em hay không.

“Dự án My Pictures Matter không đào tạo AI về hình ảnh trẻ em trong tình huống không an toàn. Chúng tôi đang nghiên cứu kịch bản ngược lại: cách tạo các bộ dữ liệu có nguồn gốc hợp pháp và được sự đồng ý để sử dụng trong học máy nhằm giúp giải quyết số lượng hình ảnh lạm dụng trẻ em ngày càng tăng được tạo ra và phân phối thông qua các nền tảng trực tuyến.”

Trả lời một số nhận xét của bạn nêu lên mối lo ngại về khả năng của hệ thống máy học, Tiến sĩ Lewis nói thêm: “Chúng tôi nhận thấy rằng các công cụ tự động cần nhiều hơn những công cụ cùn, và chẳng hạn như sự hiện diện của tỷ lệ màu da cao. trong một hình ảnh trực quan bản thân nó không biểu thị sự lạm dụng.”

Đối với những người lo lắng về các biện pháp bảo vệ quyền riêng tư đối với dữ liệu, Tiến sĩ Lewis đã chỉ vào phần “xử lý dữ liệu” trên mypicturesmatter.org sau khi nhấp vào “Bắt đầu”, trong đó nêu rõ:

* Ảnh và mọi thông tin khác mà bạn cung cấp sẽ được Phòng thí nghiệm AiLECS lưu trữ bằng cơ sở hạ tầng CNTT của Đại học Monash và/hoặc các dịch vụ đám mây an toàn với máy chủ đặt tại Úc. Tập dữ liệu sẽ không được lưu trữ trong bất kỳ kho lưu trữ 'mở' nào, tuy nhiên, mô tả về tập dữ liệu có thể hiển thị trong các cơ quan đăng ký dữ liệu công khai.

* Quyền truy cập sẽ bị hạn chế đối với các thành viên được ủy quyền của nhóm nghiên cứu. Các nhà nghiên cứu khác chỉ có thể được cấp quyền truy cập vào hình ảnh với điều kiện phải được phê duyệt các quy trình đạo đức chính thức khi bạn đã cho phép. Bạn có thể cập nhật tùy chọn chia sẻ dữ liệu của mình bất kỳ lúc nào bằng cách gửi email cho chúng tôi theo địa chỉ mypicturesmatter@ailecs.org.

* Dữ liệu nghiên cứu sẽ được lưu giữ tối thiểu 5 năm sau khi hoàn thành bất kỳ dự án nào sử dụng dữ liệu đó. Hồ sơ ghi lại sự đồng ý sẽ được lưu giữ cho đến khi xóa tập dữ liệu nghiên cứu.

Cô cũng nhấn mạnh rằng những hình ảnh thu thập được cho dự án sẽ do trường đại học nắm giữ và sử dụng chứ không phải trực tiếp của cảnh sát.

Tiến sĩ Lewis nói với chúng tôi: “Đây không phải là tập dữ liệu của cảnh sát và AFP sẽ không nắm giữ hay quản lý. “Nghiên cứu này đang được thực hiện bởi Đại học Monash, với sự cho phép chính thức về đạo đức nghiên cứu của con người về cách thu thập, sử dụng và quản lý dữ liệu.”

Dấu thời gian:

Thêm từ Đăng ký