Kameraet fjerner folk nøgne for at sætte gang i debat om kunstig intelligens, privatliv

Kameraet fjerner folk nøgne for at sætte gang i debat om kunstig intelligens, privatliv

Den tyske kunstner Mathias Vef og designeren Benedikt Groß skabte et nyt 'deepfake-kamera' kaldet Nuca, som bruger AI til helt at afklæde billeder af påklædte mennesker på få sekunder. 

Nuca rejser spørgsmål om privatlivets fred, men dets skabere hævder, at de gør det for det bedste. De siger, at kameraet er et kunstprojekt, der har til formål at fremkalde debat om hvordan generativ AI kan bruges til at udhule virkeligheden og selvfølgelig selve privatlivet.

Læs også: Sådan finder du AI Deepfakes på sociale medier 

Hvordan virker det?

Nuca behøver ikke samtykke for at klæde dig af. Når først kameraet fanger dit billede iført tøj, siger Vef, vil det tage kun 10 sekunder at behandle billedet og generere en nøgen version af dig selv.

"En af udfordringerne var at reducere tiden til generering af billederne," sagde Vef, som rapporteret af Fast Company.

"Vi brugte for det meste værktøjer, der er offentligt tilgængelige, men at kombinere dem på en meget effektiv måde og sætte det i en fungerende enhed er noget, der ikke er blevet gjort før."

Kameraet fjerner folk nøgne for at sætte gang i debat om kunstig intelligens og privatliv
Nuca kamera. Billedkreditter: Nuca

I sin nuværende form er Nuca en prototype af kompaktkamera lavet af 3D-designede og printede dele. Enheden vejer 430g og er udstyret med et 37 mm vidvinkelobjektiv og et ergonomisk greb.

'Deepfake-kameraet' har en smartphone, der tager billedet og fungerer som søger. Det viser inputbilledet og andre data, som personens positur, i realtid, siger projektets hjemmeside.

Når du trykker på udløserknappen, tager kameraet billedet af motivet og sender det til en Stabil diffusion motor, hvor den bearbejdes til ting som ansigtets vartegn og kropsform.

AI-modellen analyserer billedet på 45 identifikatorer som køn, alder, etnicitet, hår og endda briller. Ved hjælp af disse data føjer AI'en derefter den rigtige persons ansigt til en AI-genereret, fuldstændig nøgen krop.

Nuca-kamera genererer reaktion

I øjeblikket er Nuca kun en fungerende prototype, hvilket betyder, at den endnu ikke er tilgængelig til offentlig brug. Det kunstneriske eksperiment ved Mathias Vef , Benedikt Gross skaber allerede debat.

"Nuca har allerede udløst forskellige reaktioner, lige fra frygt for AI's bias mod kropsdyrkelse og skønhedsmani til entusiasme for dets fejring af naturlig menneskelig skønhed og form," websted læser.

"Dette projekt giver anledning til en afgørende diskussion om AI's potentiale, der understreger samtykke, algoritmisk retfærdighed og de samfundsmæssige konsekvenser af AI-genereret billeder."

Med henvisning til nogle brugere siger projektet, at verden må konfrontere, at den står over for "en ny type pornografi, hvor mennesker kun er et minde, der er kopieret og remixet for øjeblikkeligt at generere et hvilket som helst seksuelt billede, en bruger kan beskrive med ord".

De tyske skabere håber, at deres frække salgsargument vil få folk til at begynde at tænke og tale om farerne ved at bruge kunstig intelligens til at gengive deepfake nøgenbilleder.

»Vi tror begge, at debatten først er ved at begynde, fordi mulighederne synes uendelige. Vi er kun i begyndelsen af ​​denne rejse,” fortalte Vef Hurtigt selskab.

”Det er meget vigtigt for os at være både kritiske og udforskende, da vi skal vide, hvad der kommer for at kunne diskutere muligheder og deres implikationer. Vores kamera er en måde at gøre det på."

Vef og Groß vil angiveligt fremvise Nuca-prototypekameraet på et udstilling i den tyske hovedstad, Berlin, senere på året.

Generativ AI er blevet brugt af dårlige skuespillere til at generere ikke-konseksuelt pornografisk materiale rettet mod berømtheder som f.eks. Taylor Swift og Emma Watsonog endda mindreårige skolebørn. AI er også blevet brugt til at skabe deepfakes til begå bedrageri.

Tidsstempel:

Mere fra MetaNews