Linje mellem Real og AI Creation er for tynd til øjet

Linje mellem Real og AI Creation er for tynd til øjet

Grænsen mellem Real og AI Creation Too Thin for Eye PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Efterhånden som generative AI-udviklere fortsætter med at finjustere deres modeller til sofistikering, bliver det også i stigende grad vanskeligt at skelne mellem rigtige billeder og AI-kreationer, afslører forskere.

En undersøgelse foretaget af forskere ved University of Waterloo fastslået, at folk har svært ved at finde ud af et billede af en rigtig person og billedet af en AI-genereret person.

Under forventet tærskel

Under udførelsen af ​​undersøgelsen leverede forskere ved University of Waterloo 20 umærkede billeder til 260 deltagere. Halvdelen af ​​billederne var af rigtige mennesker taget fra Google Images, mens den anden halvdel var AI genereret ved hjælp af værktøjer som Dall-E og Stabil diffusion.

Deltagerne blev derefter bedt om at mærke billederne, hvis de var ægte eller AI-genererede, og begrunde deres svar.

Selvom 61 % af deltagerne kunne se forskel på rigtige billeder og AI-genererede billeder, var dette stadig langt under den forventede tærskel på 85 %.

Mens de granskede billederne, var deltagerne opmærksomme på detaljer som øjne, fingre, tænder og andre indikatorer, som indikatorer, når de ledte efter AI skabte billeder, men "deres vurderinger var ikke altid korrekte."

"Folk er ikke så dygtige til at skelne, som de tror, ​​de er," sagde studiets hovedforfatter Andrea Pocol, som også er ph.d.-kandidat i datalogi på universitetet.

Mens internetbrugere kan se på billeder i forbifarten, sagde Waterloo-forskerne, at de tillod deltagerne at tage sig tid til at analysere billederne.

"Folk, der bare doomscrolling eller ikke har tid, vil ikke opfange disse signaler," sagde Pocol.

Læs også: Leonardo CEO fremhæver brugerens dumhed over AI-trusler i Davos

Misbruger teknologien

Deres studere, med titlen "Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media", som vises i tidsskriftet Advances in Computer Graphics, fremhæver også de risici, der er forbundet med fremskridt inden for generativ AI-teknologi .

Forskerne bemærkede også med bekymring den hastighed, hvormed den generative AI-teknologi hurtigt ændrer sig og bliver mere sofistikeret for hver dag, der går. Akademisk forskning og lovgivning holder ikke trit med udviklingen i den generative industri.

Pocol sagde, at AI-billeder bliver mere virkelige, hvilket gør det vanskeligt for nogle mennesker nemt at skelne mellem rigtige og AI-genererede billeder. Dette, sagde Pocol, skaber en grobund for dårlige skuespillere, der udnytter teknologien til at sprede ondskab og fastholde desinformation eller at narre folk.

"Desinformation er ikke nyt, men desinformationens værktøjer har konstant ændret sig og udviklet sig," sagde Pocol.

"Det kan komme til et punkt, hvor folk, uanset hvor trænede de vil være, stadig vil kæmpe for at skelne ægte billeder fra falske billeder. Derfor er vi nødt til at udvikle værktøjer til at identificere og imødegå dette. Det er som et nyt AI-våbenkapløb.”

Forskerne har også erkendt de udfordringer, teknologien stiller, især når det kommer til spredning af deepfakes.

Teknologien i forkerte hænder

Med vanskeligheder for almindelige mennesker med at skelne mellem ægte og falske billeder, er der voksende frygt for en stigning i spredningen af ​​deepfakes. Eksperter har advaret om, at dårlige skuespillere vil drage fordel af den generative AI-teknologi til at sprede valgfalskheder i deres forsøg på at vildlede vælgere.

Center for modvirkning af digital had (CCDH), en nonprofitorganisation, der overvåger online hadefulde ytringer, har allerede advarede i deres rapport, at AI-drevne billedgeneratorer forværrer misinformationen om valget i 2024.

"Potentialet for sådanne AI-genererede billeder til at tjene som 'fotobevis' kan forværre spredningen af ​​falske påstande, hvilket udgør en betydelig udfordring for at bevare integriteten af ​​valg," sagde CCDH-forskere i deres rapport.

Dette kommer dog midt i en meddelelse om, at omkring 20 store teknologivirksomheder inkl OpenAI, Microsoft og Stability AI underskrev en aftale at arbejde sammen for at forhindre, at AI-bedragerisk indhold "blander sig i valget, der finder sted globalt i år.

Tidsstempel:

Mere fra MetaNews