Camera stript mensen naakt om debat over AI en privacy op gang te brengen

Camera stript mensen naakt om debat over AI en privacy op gang te brengen

De Duitse kunstenaar Mathias Vef en ontwerper Benedikt Groß creëerden een nieuwe 'deepfake-camera' genaamd Nuca, die AI gebruikt om foto's van geklede mensen binnen enkele seconden volledig uit te kleden. 

Nuca roept vragen op over privacy, maar de makers beweren dat ze het voor het algemeen belang doen. Ze zeggen dat de camera een kunstproject is dat tot doel heeft discussie uit te lokken over hoe generatieve AI kan worden gebruikt om de realiteit en, uiteraard, de privacy zelf uit te hollen.

Lees ook: Hoe AI-deepfakes op sociale media te herkennen 

Hoe werkt het?

Nuca heeft geen toestemming nodig om je uit te kleden. Zodra de camera jouw beeld vastlegt terwijl je kleding draagt, zegt Vef, duurt het slechts 10 seconden om de foto te verwerken en een naakte versie van jezelf te genereren.

“Een van de uitdagingen was het verkorten van de tijd voor het genereren van de beelden”, aldus Vef, zoals gerapporteerd door Fast Company.

“We gebruikten voornamelijk tools die publiek beschikbaar zijn, maar om ze op een zeer efficiënte manier te combineren en in een werkend apparaat te stoppen, is iets dat nog niet eerder is gedaan.”

Camera stript mensen naakt om debat over AI en privacy op gang te brengen
Nuca-camera. Afbeeldingscredits: Nuca

In zijn huidige vorm is de Nuca een prototype compactcamera gemaakt van 3D ontworpen en geprinte onderdelen. Het apparaat weegt 430 gram en is uitgerust met een 37 mm groothoeklens en een ergonomische grip.

De ‘deepfake-camera’ bestaat uit een smartphone die het beeld maakt en als zoeker fungeert. Het toont de invoerfoto en andere gegevens, zoals de pose van de persoon, in realtime, aldus de website van het project.

Wanneer u op de triggerknop drukt, legt de camera het beeld van het onderwerp vast en verzendt dit naar een Stabiele diffusie engine waar het wordt verwerkt voor zaken als gezichtsoriëntatiepunten en lichaamsvorm.

Het AI-model analyseert de foto op 45 identificatiegegevens zoals geslacht, leeftijd, etniciteit, haar en zelfs bril. Met behulp van deze gegevens voegt de AI vervolgens het gezicht van de echte persoon toe aan een door AI gegenereerd, volledig naakt lichaam.

Nuca-camera genereert reactie

Op dit moment is Nuca slechts een werkend prototype, wat betekent dat het nog niet beschikbaar is voor publiek gebruik. Het artistieke experiment van Mathias Vef en Benedictus Gross leidt nu al tot discussie.

“Nuca heeft al tot diverse reacties geleid, variërend van angst voor de vooringenomenheid van AI in de richting van lichaamscultus en schoonheidsmanie tot enthousiasme voor de viering van de natuurlijke menselijke schoonheid en vorm”, aldus de woordvoerder. website leest.

“Dit project leidt tot een cruciale discussie over het potentieel van AI, waarbij de nadruk wordt gelegd op toestemming, algoritmische eerlijkheid en de maatschappelijke impact van door AI gegenereerde beelden.”

Het project citeert enkele gebruikers en zegt dat de wereld geconfronteerd moet worden met het feit dat zij te maken heeft met “een nieuw soort pornografie waarin mensen slechts een herinnering zijn die wordt gekopieerd en geremixt om onmiddellijk elk seksueel beeld te genereren dat een gebruiker met woorden kan beschrijven”.

De Duitse makers hopen dat hun brutale verkooppraatje mensen ertoe zal aanzetten na te denken en te praten over de gevaren van het gebruik van kunstmatige intelligentie om deepfake-naaktbeelden te reproduceren.

“We denken allebei dat het debat nog maar net begint, omdat de mogelijkheden eindeloos lijken. We staan ​​nog maar aan het begin van deze reis”, vertelde Vef Snel gezelschap.

“Het is voor ons heel belangrijk om zowel kritisch als verkennend te zijn, omdat we moeten weten wat er gaat komen om de mogelijkheden en de implicaties ervan te kunnen bespreken. Onze camera is een manier om dat te doen.”

Vef en Groß zullen naar verluidt de Nuca-prototypecamera demonstreren tijdens een tentoonstelling in de Duitse hoofdstad Berlijn, later dit jaar.

Generatieve AI is door slechte acteurs gebruikt om niet-conseksueel pornografisch materiaal te genereren dat gericht is op beroemdheden als Taylor Swift en Emma Watsonen zelfs minderjarig schoolkinderen. AI is ook gebruikt om deepfakes te creëren fraude plegen.

Tijdstempel:

Meer van MetaNieuws