Kina kommer att införa lagar för att ta itu med Deepfakes i januari PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Kina kommer att införa lagar för att ta itu med Deepfakes i januari

Om du har varit på sociala medier den här veckan har du förmodligen stött på bilder av AI-genererade bilder av dina vänner som älvor, animékaraktärer, avatarer och magiska varelser.

Detta beror delvis på Lensa, en AI som syntetiserar digitala porträtt baserat på bilder som användare laddar upp. Appens porträtt tog praktiskt taget över internet, där Lensa blev den mest nedladdade appen i Apples appbutik.

Lensa, liksom alla AI-applikationer som digitalt renderar bilder, har uppvaktat både beundran och kontroverser för sin till synes uppenbara sexualisering av kvinnliga bilder. Andra användare noterade att appen gjorde deras hud blekare eller deras kroppar tunnare.

Läs också: AI-teknik som skapar livsförödande djupa falska bilder

Hur du får din egen "magiska avatar"

Bilderna som går runt är en stolt skapelse av Lensas magiska avatarfunktion. För att få en känsla av det måste man ladda ner Lensa-appen på en telefon. Ett årligt abonnemang är runt $35.99 men dess tjänster är också tillgängliga om än med begränsningar gratis på en veckolång provperiod om man vill kolla upp det först.

Men att generera de populära magiska avatarerna kräver en extra avgift på grund av vad appen säger är "enorm beräkningskraft" att uppnå.

På en gratis provperiod kan man få 50 avatarer för $3.99 och 200 avatarer för $7.99. För att få bästa resultat uppmuntrar appen användare att ladda upp minst 20 närbilder.

Helst bör dessa bilder vara närbilder av ens ansikte med en mängd olika bakgrunder, ansiktsuttryck och vinklar. Appen insisterar på att användare ska vara 13 år eller äldre. Lensa är inte en helt ny applikation.

En produkt från Prisma, applikationen blev först populär 2016 tack vare en funktion som gjorde det möjligt för användare att ändra sina selfies till foton i stil med kända artister.

Hur fungerar Lensa?

Enligt företaget använder det vad det kallar "TrueDepth API-teknik" där en användare tillhandahåller foton, eller "ansiktsdata", sedan tränas AI på sina algoritmer för att prestera bättre och visa dig bättre resultat. Utbildning är när AI:n bearbetar data, validerar och testar modellerna.

För att använda appen kan man kurera 20 selfies med en mängd olika uttryck och vinklar och välja alternativet 100 avatarer.

Det tar cirka 20 minuter att göra jobbet. När det är klart returnerar AI avatarer som faller in i 10 kategorier som fantasy, fairy princess, fokus, pop, stilig, animé, light, kawaii, iriserande och kosmisk.

"I allmänhet kände jag att appen gjorde ett anständigt jobb med att producera konstnärliga bilder baserade på mina selfies. Jag kunde inte riktigt känna igen mig själv i de flesta porträtten, men jag kunde se var de kom ifrån.” Zoe Sottile av CNN skrev.

"Det verkade känna igen och upprepa vissa drag, som min bleka hud eller min runda näsa, mer än andra. Några av dem var i en mer realistisk stil, och var nära nog att jag skulle kunna tro att de faktiskt var bilder på mig om jag såg dem på långt håll. Andra var betydligt mer stiliserade och konstnärliga, så de kändes mindre specifika för mig.”

Sottile märkte att AI också gjorde henne lättare.

När det gäller mig kände jag också att det automatiskt gjorde mig ljusare och bilden jag provade i mitt galleri av mig och en vän som är lätt mörkare i hyn gav en något mycket ljusare version av oss, helt klart en överdrift, och exponerade en benägenhet att bli ljusare svarta hudtoner.

Sexualisera kvinnor

Andra som använde det hade mer eller mindre liknande bekymmer.

Kvinnor säger att AI är snabb med att sexualisera sina bilder. Men i en tidigare artikel, vi förklarade detta har möjliggjorts av det enorma antalet sexualiserade bilder som finns i datamängder som används i AI-träning.

Med andra ord betyder detta att AI är alltför bekant med hur man genererar dessa bilder och enkelt blir pornografisk. Med lite knep kan den uppmanas att omedvetet producera porr från dessa bilder också om en användare vill.

I andra berättelser har vi täckt hur AI:s kan luras att ge information om hur man gör en bomb till exempel. Konstigt nog förekom inte frågan om sexualisering i bilder av män som laddats upp till Magic Avatar-funktionen. För MIT Technology Review, Melissa Heikkilä skrev,

"Mina avatarer var tecknat pornifierade, medan mina manliga kollegor fick vara astronauter, upptäcktsresande och uppfinnare."

Sottile, å andra sidan, märkte att AI hade "i en av de mest desorienterande bilderna" fått henne att se ut "som en version av mitt ansikte var på en naken kropp."

"På flera bilder såg det ut som om jag var naken men med en filt strategiskt placerad, eller så var bilden bara avskuren för att dölja något explicit", sa hon.

"Och många av bilderna, även där jag var helt påklädd, hade ett kvavt ansiktsuttryck, betydande dekolletage och snåla kläder som inte matchade de bilder jag hade skickat in", tillägger Zoe Sottile.

Andra uttryckte rädsla för att de skulle bli porrstjärnor av AI-teknik som Lensa.

Body shaming

För kvinnor med full kropp var upplevelsen något annorlunda och ännu värre i vissa fall. AI:n gjorde dem tunnare och sexiga.

"Om du har Body Dysmorphia för Lmfao, använd inte den Lensa-appen för de AI-genererade bilderna. Detta är din varning,” en användare skrev.

En annan sa att appen hade fått henne att se asiatisk ut.

En annan användare tog till twitter för att klaga på att han hade betalat $8 för att uppleva kroppsdysmorfi när han använde AI.

Kroppsdysmorfi är ett psykiskt tillstånd där en person tillbringar mycket tid med att oroa sig för brister i sitt utseende. Dessa brister är ofta omärkbara för andra.

En annan klagade på att AI automatiskt tappar betydande vikt på hennes annars helfigursbilder.

"Ett klagomål jag har om Lensa AI är att det kommer att göra dig smal på vissa bilder. Som en tjock person störde de bilderna mig verkligen. Så var noga med att inte bli triggad om du är en tjockis utan intresse av att bli smal”, skrev Mariah Successful (@Shlatz) den 5 december 2022.

Psykologisk tidsinställd bomb

Och psykologer instämmer i hennes uttalanden om att AI kan utlösa fulländade kvinnor.

En klinisk psykolog, Dr. Toni Pikoos, en australiensisk läkare för mental hälsa, som forskar om och specialiserar sig på att behandla dysmorfisk störning i kroppen, trodde att applikationen kunde göra mer skada än nytta och att den inte är något annat än ett "fotofiltreringsverktyg" för att förändra ens självuppfattning.

"När det finns en större diskrepans mellan idealiskt och upplevt utseende, kan det underblåsa kroppens missnöje, ångest och en önskan att fixa eller förändra sitt utseende med potentiellt ohälsosamma eller osäkra medel" som oordnad mat eller onödiga kosmetiska ingrepp, säger Pikoos.

Hon uttryckte oro över att bilderna raderade "intrikata detaljer" som "fräknar och linjer", något som kan öka oron för ens hud. Detta kan också psykologiskt trigga en utsatt person, säger hon.

”Att se en extern bild reflektera deras osäkerhet mot dem förstärker bara tanken 'Se, det här är fel på mig! Och jag är inte den enda som kan se det!'” säger Pikoos.

På grund av det faktum att AI introducerar sina egna funktioner som inte skildrar en användares verkliga utseende, kan appen skapa ny oro, säger han.

Hon säger att AI:s "magiska avatarer" var "särskilt intressanta eftersom det verkar mer objektivt - som om någon extern, allvetande varelse har skapat den här bilden av hur du ser ut."

Detta anser hon faktiskt skulle vara "användbart" för personer med kroppsdysmorfisk störning och bidra till att belysa en "missmatch" mellan en "individs negativa syn på sig själv och hur andra ser dem."

Hon noterade dock att AI:n inte var objektiv på grund av dess försök att avbilda en felfri och mer "förbättrad och fulländad version" av ens ansikte.

Till exempel kan någon som upplever kroppsdysmorfisk störning, eller BDD, "uppleva en kort självförtroendeökning när de ser sin bild och vill dela den här versionen av sig själva med världen", säger hon, men kommer att drabbas hårt av verkligheten när de är avstängda. skärm, ofiltrerad, i spegeln eller ett foto som de tar av sig själva.”

Att försvara sitt eget

Andrey Usoltsev, VD för Prisma Labs, säger att hans företag för närvarande är "överväldigat" av förfrågningar om Lensa och erbjöd en länk till en FAQ-sida som tar upp frågor om sexualiserade bilder, men inte den typ av användarreaktioner som Pikoos beskriver.

"Att se detta återspeglas i appen skulle vara väldigt konfronterande och ge ett slags "bekräftelse" för hur de ser sig själva, vilket leder till att de blir "mer förankrade i sjukdomen."

Stabil diffusion

Lensa använder också Stable Diffusion, som använder djupinlärningssyntes som kan skapa nya bilder från textbeskrivningar och kan köras på en Windows- eller Linux-PC, på en Mac eller i molnet på hyrd datorhårdvara.

Stable Diffusions neurala nätverk har med hjälp av intensiv inlärning bemästrat att associera ord och det allmänna statistiska sambandet mellan pixlarnas positioner i bilder.

Vi täckte in en annan Historien hur tekniken kan få livsförstörande konsekvenser genom att återge och avbilda bilder av människor som verkar vara kriminella eller vara inblandade i mindre än smickrande metoder som stöld.

Till exempel kan man ge den öppna källan Stable Diffusion en uppmaning, till exempel "Tom Hanks i ett klassrum", och det kommer att ge honom/henne en ny bild av Tom Hanks i ett klassrum. I Tom Hanks fall är det en promenad i parken eftersom hundratals av hans bilder redan finns i datamängden som används för att träna Stable Diffusion.

Artister får råa deal också

På konstfronten är vissa konstnärer missnöjda.

De är oroliga att AI kan hota deras försörjning. Detta beror på att artister, inklusive digitala, inte heller kan producera lika snabbt som AI för ett digitalt porträtt.

Lensas moderbolag, Prisma, har försökt att massera oron över att dess teknologi eliminerar arbete för digitala artister.

"Medan både människor och AI lär sig om konstnärliga stilar på halvliknande sätt, finns det några grundläggande skillnader: AI kan snabbt analysera och lära av stora uppsättningar data, men den har inte samma nivå av uppmärksamhet och uppskattning för konst som människa” skrev företaget på Twitter den 6 december.

Det står att "utgångarna kan inte beskrivas som exakta kopior av något speciellt konstverk."

Att förändra självbilden

Kerry Bowman, en bioetiker vid University of Toronto, säger att AI har potential att negativt påverka ens självbild, bland andra etiska frågor.

"På vissa sätt kan det vara väldigt roligt men dessa idealiserade bilder drivs av sociala förväntningar som kan vara väldigt grymma och väldigt smala", sa Bowman på måndagen.

Bowman sa att dessa AI-program använder datamängdskällor som internet i jakt på olika konststilar för att skapa dessa porträtt. Nackdelen är att när AI gör det, får konstnärer sällan ekonomisk ersättning för användning av deras arbete eller krediteras.

"Vad som händer med framväxande AI är att lagarna inte riktigt har kunnat hålla jämna steg med detta när det gäller upphovsrättslagen. Det är väldigt svårt och väldigt grumligt och etiken ligger ännu längre bakom lagarna eftersom jag skulle hävda att detta i grunden är orättvist”, sa Bowman.

Bekymmer med personuppgifter

Bowman tog också upp oro över hur människors personuppgifter lagras.

"Vill du verkligen ha ditt ansikte i en stor databas? Människor måste bestämma själva om det här, men det är inte godartat, det finns inget med det här, det är inte bara roligt”, sa han.

Lensa säger att bilder sparas på servrar och i appar i högst 24 timmar. Med algoritmer för djupinlärning och maskininlärning samlar AI:n och levererar sedan bättre resultat i framtiden, även baserat på raderad data. Detta, säger Bowman, kommer att leda till säkerhetsoro över den potentiella användningen av ansiktsigenkänning eftersom denna typ av data kan användas av polisen olagligt.

Tidsstämpel:

Mer från MetaNews