Máy ảnh chụp những người khỏa thân để châm ngòi cho cuộc tranh luận về AI, quyền riêng tư

Máy ảnh chụp những người khỏa thân để châm ngòi cho cuộc tranh luận về AI, quyền riêng tư

Nghệ sĩ người Đức Mathias Vef và nhà thiết kế Benedikt Groß đã tạo ra một 'máy ảnh deepfake' mới có tên Nuca, sử dụng AI để cởi bỏ hoàn toàn những bức ảnh của người mặc quần áo chỉ trong vài giây. 

Nuca đặt ra câu hỏi về quyền riêng tư, nhưng những người tạo ra nó cho rằng họ đang làm điều đó vì lợi ích lớn hơn. Họ nói rằng chiếc máy ảnh là một dự án nghệ thuật nhằm mục đích khơi dậy cuộc tranh luận về cách thức trí tuệ nhân tạo có thể được sử dụng để xói mòn thực tế và tất nhiên, cả quyền riêng tư.

Ngoài ra đọc: Cách phát hiện các deepfake AI trên mạng xã hội 

Học như thế nào?

Nuca không cần sự đồng ý để cởi quần áo của bạn. Vef cho biết, khi máy ảnh chụp được hình ảnh bạn mặc quần áo, sẽ chỉ mất 10 giây để xử lý ảnh và tạo ra phiên bản khỏa thân của chính bạn.

Theo báo cáo của Fast Company, Vef cho biết: “Một trong những thách thức là giảm thời gian tạo hình ảnh.

“Chúng tôi sử dụng hầu hết các công cụ có sẵn công khai, nhưng để kết hợp chúng theo cách rất hiệu quả và đưa nó vào một thiết bị hoạt động là điều chưa từng được thực hiện trước đây.”

Máy ảnh chụp những người khỏa thân để khơi dậy cuộc tranh luận về AI và quyền riêng tư
Máy ảnh Nuca. Tín dụng hình ảnh: Nuca

Ở dạng hiện tại, Nuca là một mẫu máy ảnh compact nguyên mẫu được làm từ các bộ phận được thiết kế và in 3D. Máy nặng 430g và được trang bị ống kính góc rộng 37mm cùng tay cầm tiện dụng.

'Máy ảnh deepfake' có điện thoại thông minh chụp ảnh và hoạt động như kính ngắm. Trang web của dự án cho biết, nó hiển thị hình ảnh đầu vào và các dữ liệu khác, như tư thế của người đó, trong thời gian thực.

Khi bạn nhấn nút kích hoạt, máy ảnh sẽ chụp hình ảnh của đối tượng và gửi nó đến một Khuếch tán ổn định động cơ nơi nó được xử lý những thứ như các điểm mốc trên khuôn mặt và hình dạng cơ thể.

Mô hình AI phân tích bức ảnh dựa trên 45 thông tin nhận dạng như giới tính, tuổi tác, dân tộc, tóc và thậm chí cả kính. Sau đó, bằng cách sử dụng dữ liệu này, AI sẽ thêm khuôn mặt của người thật vào cơ thể khỏa thân hoàn toàn do AI tạo ra.

Camera Nuca tạo ra phản ứng

Hiện tại, Nuca vẫn chỉ là nguyên mẫu hoạt động, nghĩa là nó chưa được đưa vào sử dụng rộng rãi. Tuy nhiên, thử nghiệm nghệ thuật của Mathias VefTổng Benedikt đã tạo ra cuộc tranh luận.

“Nuca đã gây ra nhiều phản ứng khác nhau, từ lo ngại về sự thiên vị của AI đối với sự sùng bái cơ thể và chứng cuồng sắc đẹp cho đến sự nhiệt tình tôn vinh vẻ đẹp và hình dáng tự nhiên của con người,” trang web đọc.

“Dự án này thúc đẩy một cuộc thảo luận quan trọng về tiềm năng của AI, nhấn mạnh đến sự đồng ý, tính công bằng về thuật toán và tác động xã hội của hình ảnh do AI tạo ra.”

Trích dẫn một số người dùng, dự án cho biết thế giới phải đối mặt với việc họ đang phải đối mặt với “một loại nội dung khiêu dâm mới, trong đó con người chỉ là ký ức được sao chép và phối lại để tạo ra ngay lập tức bất kỳ hình ảnh tình dục nào mà người dùng có thể mô tả bằng lời”.

Các nhà sáng tạo người Đức đang hy vọng rằng chiêu trò bán hàng táo bạo của họ sẽ khiến mọi người bắt đầu suy nghĩ và nói về sự nguy hiểm của việc sử dụng trí tuệ nhân tạo để tái tạo ảnh khỏa thân deepfake.

“Cả hai chúng tôi đều nghĩ rằng cuộc tranh luận chỉ sắp bắt đầu vì khả năng dường như là vô tận. Chúng tôi chỉ mới bắt đầu cuộc hành trình này,” Vef nói Công ty nhanh chóng.

“Đối với chúng tôi, điều rất quan trọng là phải vừa có óc phê phán vừa có tính khám phá, vì chúng tôi cần biết điều gì sắp xảy ra để có thể thảo luận về các khả năng cũng như tác động của chúng. Máy ảnh của chúng tôi là một cách để làm điều đó.”

Vef và Groß sẽ giới thiệu máy ảnh nguyên mẫu Nuca tại một sự kiện triển lam ở thủ đô Berlin của Đức vào cuối năm nay.

AI sáng tạo đã bị những kẻ xấu sử dụng để tạo ra tài liệu khiêu dâm phi giới tính nhắm vào những người nổi tiếng như Taylor Swift và Emma Watson, và thậm chí cả trẻ vị thành niên học sinh. AI cũng đã được sử dụng để tạo ra các tác phẩm deepfake gian lận.

Dấu thời gian:

Thêm từ MetaNews