La telecamera spoglia le persone nude per innescare il dibattito su intelligenza artificiale e privacy

La telecamera spoglia le persone nude per innescare il dibattito su intelligenza artificiale e privacy

L'artista tedesco Mathias Vef e il designer Benedikt Groß hanno creato una nuova "macchina fotografica deepfake" chiamata Nuca, che utilizza l'intelligenza artificiale per spogliare completamente le foto di persone vestite in pochi secondi. 

Nuca solleva dubbi sulla privacy, ma i suoi creatori sostengono che lo stanno facendo per un bene superiore. Dicono che la macchina fotografica sia un progetto artistico che mira a provocare un dibattito su come farlo IA generativa può essere utilizzato per erodere la realtà e, ovviamente, la privacy stessa.

Leggi anche: Come individuare i deepfake AI sui social media 

Come funziona?

Nuca non ha bisogno del consenso per spogliarti. Una volta che la fotocamera cattura la tua immagine mentre indossi dei vestiti, dice Vef, ci vorranno solo 10 secondi per elaborare la foto e generare una versione nuda di te stesso.

"Una delle sfide è stata ridurre il tempo necessario per la generazione delle immagini", ha affermato Vef, come riportato da Fast Company.

"Abbiamo utilizzato principalmente strumenti disponibili al pubblico, ma combinarli in modo molto efficiente e inserirli in un dispositivo funzionante è qualcosa che non è mai stato fatto prima."

La telecamera spoglia le persone nude per innescare il dibattito su intelligenza artificiale e privacy
Fotocamera Nuca. Crediti immagine: Nuca

Nella sua forma attuale, la Nuca è un prototipo di fotocamera compatta realizzato con parti progettate e stampate in 3D. Il dispositivo pesa 430 g ed è dotato di un obiettivo grandangolare da 37 mm e di un'impugnatura ergonomica.

La "fotocamera deepfake" è dotata di uno smartphone che scatta l'immagine e funge da mirino. Visualizza l'immagine inserita e altri dati, come la posa della persona, in tempo reale, afferma il sito web del progetto.

Quando si preme il pulsante di attivazione, la fotocamera cattura l'immagine del soggetto e la invia a Diffusione stabile motore in cui viene elaborato per elementi quali punti di riferimento del viso e forma del corpo.

Il modello AI analizza la foto su 45 identificatori come sesso, età, etnia, capelli e persino occhiali. Utilizzando questi dati, l’intelligenza artificiale aggiunge quindi il volto della persona reale a un corpo completamente nudo generato dall’intelligenza artificiale.

La fotocamera Nuca genera una reazione

Al momento Nuca rimane solo un prototipo funzionante, ovvero non è ancora disponibile per l'uso pubblico. Tuttavia, l'esperimento artistico di Mathias Vef ed Benedikt Gross sta già facendo discutere.

"Nuca ha già suscitato reazioni diverse, che vanno dai timori di una parzialità dell'intelligenza artificiale verso il culto del corpo e la mania della bellezza, all'entusiasmo per la celebrazione della bellezza e della forma umana naturale", ha affermato. sito web legge.

"Questo progetto stimola una discussione cruciale sul potenziale dell'intelligenza artificiale, sottolineando il consenso, l'equità algoritmica e gli impatti sociali delle immagini generate dall'intelligenza artificiale."

Citando alcuni utenti, il progetto afferma che il mondo deve confrontarsi con il fatto che si trova di fronte a "un nuovo tipo di pornografia in cui gli esseri umani sono solo un ricordo che viene copiato e remixato per generare istantaneamente qualsiasi immagine sessuale che un utente possa descrivere con le parole".

I creatori tedeschi sperano che la loro sfacciata presentazione di vendita spinga le persone a iniziare a pensare e a parlare dei pericoli dell'uso dell'intelligenza artificiale per riprodurre nudi deepfake.

“Entrambi pensiamo che il dibattito sia solo all’inizio perché le possibilità sembrano infinite. Siamo solo all’inizio di questo viaggio”, ha detto Vef Compagnia veloce.

“Per noi è molto importante essere critici ed esplorativi, poiché abbiamo bisogno di sapere cosa accadrà per poter discutere le possibilità e le loro implicazioni. La nostra fotocamera è un modo per farlo.

Secondo quanto riferito, Vef e Groß presenteranno il prototipo della fotocamera Nuca ad un esposizione nella capitale tedesca, Berlino, entro la fine dell'anno.

L'intelligenza artificiale generativa è stata utilizzata da cattivi attori per generare materiale pornografico non consessuale rivolto a celebrità come Taylor Swift ed Emma Watson, e anche minorenni bambini in età scolare. L’intelligenza artificiale è stata utilizzata anche per creare deepfake commettere una frode.

Timestamp:

Di più da MetaNotizie