Linjen mellan Real och AI Creation är för tunn för ögat

Linjen mellan Real och AI Creation är för tunn för ögat

Gränsen mellan verklig och AI-skapande är för tunn för ögat PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

När generativa AI-utvecklare fortsätter att finjustera sina modeller till sofistikerade, blir det också allt svårare att skilja mellan riktiga bilder och AI-skapelser, avslöjar forskare.

En studie av forskare vid University of Waterloo konstaterat att människor har svårt att lista ut en bild av en verklig person och den av en AI-genererad person.

Under förväntad tröskel

Vid genomförandet av studien gav forskare vid University of Waterloo 20 omärkta bilder till 260 deltagare. Hälften av bilderna var på riktiga människor tagna från Google Bilder medan den andra hälften var AI-genererade med hjälp av verktyg som Dall-E och Stabil diffusion.

Deltagarna ombads sedan att märka bilderna, om de var verkliga eller AI-genererade, och motivera sina svar.

Även om 61 % av deltagarna kunde se skillnaden mellan riktiga bilder och AI-genererade bilder, var detta fortfarande långt under den förväntade tröskeln på 85 %.

När deltagarna granskade bilderna uppmärksammade deltagarna detaljer som ögon, fingrar, tänder och andra indikatorer som indikatorer när de letade efter AI skapade bilder, men "deras bedömningar var inte alltid korrekta."

"Människor är inte så skickliga på att göra skillnad som de tror att de är," sade studiens huvudförfattare Andrea Pocol, som också är doktorand i datavetenskap vid universitetet.

Medan internetanvändare kan titta på bilder i förbigående, sa Waterloo-forskarna att de lät deltagarna ta sig tid att analysera bilderna.

"Människor som bara doomscrolling eller inte har tid kommer inte att ta upp dessa signaler," sa Pocol.

Läs också: Leonardo VD lyfter fram användarens dumhet över AI-hot i Davos

Missbrukar tekniken

Deras studera, med titeln "Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media", som visas i tidskriften Advances in Computer Graphics, belyser också riskerna förknippade med framstegen inom generativ AI-teknik .

Forskarna noterade också med oro i vilken takt den generativa AI-tekniken snabbt förändras och blir mer sofistikerad för varje dag som går. Akademisk forskning och lagstiftning lyckas inte hålla jämna steg med utvecklingen inom den generativa industrin.

Pocol sa att AI-bilder blir mer verkliga vilket gör det svårt för vissa människor att enkelt skilja mellan riktiga och AI-genererade bilder. Detta, sa Pocol, skapar en grogrund för dåliga aktörer som utnyttjar tekniken för att sprida illvilja och vidmakthålla desinformation eller för att lura människor.

"Desinformation är inte nytt, men verktygen för desinformation har ständigt förändrats och utvecklats," sa Pocol.

"Det kan komma till en punkt där människor, oavsett hur tränade de kommer att vara, fortfarande kommer att kämpa för att skilja riktiga bilder från förfalskningar. Det är därför vi behöver utveckla verktyg för att identifiera och motverka detta. Det är som en ny AI-kapprustning.”

Forskarna har också erkänt de utmaningar som tekniken innebär, särskilt när det gäller spridning av djupförfalskningar.

Tekniken i fel händer

Med svårigheter för vanliga människor att skilja mellan verkliga och falska bilder, finns det en växande rädsla för en ökad spridning av deepfakes. Experter har varnat för dåliga skådespelare kommer att dra nytta av den generativa AI-tekniken för att sprida falska val i sina försök att vilseleda väljarna.

Smakämnen Centrum för att motverka digital hat (CCDH), en ideell organisation som övervakar hatretorik online har redan gjort det varnade i sin rapport att AI-drivna bildgeneratorer förvärrar den felaktiga informationen om valet 2024.

"Möjligheten för sådana AI-genererade bilder att fungera som "fotobevis" kan förvärra spridningen av falska påståenden, vilket utgör en betydande utmaning för att bevara valens integritet, säger CCDH-forskare i sin rapport.

Detta kommer dock mitt i ett tillkännagivande om att ett 20-tal stora teknikföretag inklusive OpenAI, Microsoft och Stability AI tecknade ett avtal att arbeta tillsammans för att förhindra AI-bedrägligt innehåll från att "störa i valet som äger rum globalt i år.

Tidsstämpel:

Mer från MetaNews