Kamera strippar människor nakna för att väcka debatt om AI, integritet

Kamera strippar människor nakna för att väcka debatt om AI, integritet

Den tyske konstnären Mathias Vef och designern Benedikt Groß skapade en ny "deepfake-kamera" som heter Nuca, som använder AI för att helt klä av foton av klädda människor inom några sekunder. 

Nuca väcker frågor om integritet, men dess skapare hävdar att de gör det för det större bästa. De säger att kameran är ett konstprojekt som syftar till att väcka debatt om hur generativ AI kan användas för att urholka verkligheten och naturligtvis integriteten i sig.

Läs också: Hur man upptäcker AI Deepfakes på sociala medier 

Hur fungerar det?

Nuca behöver inget samtycke för att klä av dig. När kameran väl tar din bild iförd kläder, säger Vef, tar det bara 10 sekunder att bearbeta fotot och skapa en naken version av dig själv.

"En av utmaningarna var att minska tiden för genereringen av bilderna," sa Vef, enligt rapporter från Fast Company.

"Vi använde mestadels verktyg som är allmänt tillgängliga, men att kombinera dem på ett mycket effektivt sätt och placera det i en fungerande enhet är något som inte har gjorts tidigare."

Kameran tar bort människor nakna för att väcka debatt om AI och integritet
Nuca kamera. Bildkrediter: Nuca

I sin nuvarande form är Nuca en prototyp av kompaktkamera gjord av 3D-designade och tryckta delar. Enheten väger 430g och är utrustad med en 37 mm vidvinkellins och ett ergonomiskt grepp.

"Deepfake-kameran" har en smartphone som tar bilden och fungerar som sökare. Den visar ingångsbilden och annan data, som personens pose, i realtid, säger projektets hemsida.

När du trycker på triggerknappen tar kameran bilden av motivet och skickar den till en Stabil diffusion motor där den bearbetas för saker som ansiktslandmärken och kroppsform.

AI-modellen analyserar fotot på 45 identifierare som kön, ålder, etnicitet, hår och till och med glasögon. Med hjälp av dessa data lägger AI sedan till den verkliga personens ansikte till en AI-genererad, helt naken kropp.

Nuca-kamera genererar reaktion

För närvarande är Nuca bara en fungerande prototyp, vilket betyder att den ännu inte är tillgänglig för allmänheten. Men det konstnärliga experimentet av Mathias Vef och Benedikt Gross skapar redan debatt.

"Nuca har redan väckt olika reaktioner, allt från rädsla för AI:s fördomar mot kroppskult och skönhetsmani till entusiasm för dess hyllning av naturlig mänsklig skönhet och form," webbplatsen läser.

"Detta projekt föranleder en avgörande diskussion om AI:s potential, som betonar samtycke, algoritmisk rättvisa och de samhälleliga effekterna av AI-genererade bilder."

Projektet citerar några användare och säger att världen måste konfrontera att den står inför "en ny typ av pornografi där människor bara är ett minne som kopieras och remixas för att omedelbart generera vilken sexuell bild en användare kan beskriva med ord".

De tyska kreatörerna hoppas att deras fräcka försäljningsargument ska få folk att börja tänka och prata om farorna med att använda artificiell intelligens för att reproducera djupfalska nakenbilder.

"Vi tror båda att debatten bara är på väg att börja eftersom möjligheterna verkar oändliga. Vi är bara i början av den här resan, säger Vef Snabbt företag.

”Det är väldigt viktigt för oss att vara både kritiska och utforskande, eftersom vi behöver veta vad som kommer för att kunna diskutera möjligheter och deras implikationer. Vår kamera är ett sätt att göra det."

Vef och Groß ska enligt uppgift visa upp Nucas prototypkamera på en utställning i den tyska huvudstaden Berlin senare i år.

Generativ AI har använts av dåliga skådespelare för att skapa icke-konsexuellt pornografiskt material som riktar sig till kändisar som Taylor Swift och Emma Watsonoch även minderåriga skolbarn. AI har också använts för att skapa deepfakes till begå bedrägeri.

Tidsstämpel:

Mer från MetaNews