Kamera stripper folk nakne for å vekke debatt om AI, personvern

Kamera stripper folk nakne for å vekke debatt om AI, personvern

Den tyske kunstneren Mathias Vef og designeren Benedikt Groß skapte et nytt "deepfake-kamera" kalt Nuca, som bruker AI til å kle av bilder av påkledde mennesker i løpet av sekunder. 

Nuca reiser spørsmål om personvern, men skaperne hevder at de gjør det til det beste. De sier at kameraet er et kunstprosjekt som har som mål å provosere frem debatt om hvordan generativ AI kan brukes til å erodere virkeligheten og, selvfølgelig, selve personvernet.

Les også: Hvordan oppdage AI Deepfakes på sosiale medier 

Hvordan virker det?

Nuca trenger ikke samtykke for å kle av deg. Når kameraet tar bildet ditt iført klær, sier Vef, vil det ta bare 10 sekunder å behandle bildet og generere en naken versjon av deg selv.

"En av utfordringene var å redusere tiden for generering av bildene," sa Vef, som rapportert av Fast Company.

"Vi brukte stort sett verktøy som er offentlig tilgjengelige, men å kombinere dem på en veldig effektiv måte og sette det i en fungerende enhet er noe som ikke har blitt gjort før."

Kamera stripper folk nakne for å vekke debatt om AI og personvern
Nuca kamera. Bildekreditt: Nuca

I sin nåværende form er Nuca en prototype av kompaktkamera laget av 3D-designede og trykte deler. Enheten veier 430g og er utstyrt med et 37 mm vidvinkelobjektiv og et ergonomisk grep.

"Deepfake-kameraet" har en smarttelefon som tar bildet og fungerer som søker. Den viser inndatabildet og andre data, som personens positur, i sanntid, sier prosjektets nettside.

Når du trykker på utløserknappen, tar kameraet bildet av motivet og sender det til en Stabil diffusjon motor hvor den behandles for ting som ansiktslandmerker og kroppsform.

AI-modellen analyserer bildet på 45 identifikatorer som kjønn, alder, etnisitet, hår og til og med briller. Ved å bruke disse dataene legger AI så ansiktet til den virkelige personen til en AI-generert, fullstendig naken kropp.

Nuca-kamera genererer reaksjon

For øyeblikket er Nuca bare en fungerende prototype, noe som betyr at den ennå ikke er tilgjengelig for offentlig bruk. Men det kunstneriske eksperimentet av Mathias Vef og Benedikt Gross skaper allerede debatt.

«Nuca har allerede utløst forskjellige reaksjoner, alt fra frykt for AIs skjevhet mot kroppskult og skjønnhetsmani til entusiasme for feiringen av naturlig menneskelig skjønnhet og form,» nettstedet leser.

"Dette prosjektet fører til en avgjørende diskusjon om AIs potensiale, med vekt på samtykke, algoritmisk rettferdighet og de samfunnsmessige virkningene av AI-genererte bilder."

Prosjektet siterer noen brukere og sier at verden må konfrontere at den står overfor "en ny type pornografi der mennesker bare er et minne som kopieres og remikses for øyeblikkelig å generere det seksuelle bildet en bruker kan beskrive med ord".

De tyske skaperne håper at deres frekke salgsargumenter vil få folk til å begynne å tenke og snakke om farene ved å bruke kunstig intelligens til å reprodusere dypfalske nakenbilder.

"Vi tror begge at debatten bare er i ferd med å begynne fordi mulighetene virker uendelige. Vi er bare i begynnelsen av denne reisen, sa Vef Rask selskap.

«Det er veldig viktig for oss å være både kritiske og utforskende, da vi trenger å vite hva som kommer for å kunne diskutere mulighetene og deres implikasjoner. Kameraet vårt er en måte å gjøre det på.»

Vef og Groß skal angivelig vise frem Nuca-prototypekameraet på et utstilling i den tyske hovedstaden Berlin senere i år.

Generativ AI har blitt brukt av dårlige skuespillere for å generere pornografisk materiale som ikke er konseksuelt rettet mot kjendiser som Taylor Swift og Emma Watson, og til og med mindreårige skolebarn. AI har også blitt brukt til å lage deepfakes til begå svindel.

Tidstempel:

Mer fra MetaNews