Meja med resničnim in umetnim ustvarjanjem je pretanka za oko

Meja med resničnim in umetnim ustvarjanjem je pretanka za oko

Line Between Real and AI Creation Too Thin for the Eye PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ker generativni razvijalci umetne inteligence še naprej izpopolnjujejo svoje modele do sofisticiranosti, postaja vse težje razlikovati med resničnimi slikami in stvaritvami umetne inteligence, razkrivajo raziskovalci.

Študija raziskovalcev na Univerza v Waterloo ugotovil, da imajo ljudje težave pri razločevanju slike resnične osebe in slike osebe, ki jo je ustvarila umetna inteligenca.

Pod pričakovanim pragom

Pri izvajanju študije so raziskovalci z univerze Waterloo 20 udeležencem posredovali 260 neoznačenih slik. Polovica slik je bila resničnih ljudi, posnetih iz Google Images, medtem ko je bila druga polovica umetna inteligenca ustvarjena z orodji, kot sta Dall-E in Stabilna difuzija.

Udeležence so nato prosili, naj označijo slike, če so resnične ali ustvarjene z umetno inteligenco, in tako utemeljijo svoje odgovore.

Čeprav je 61 % udeležencev lahko ugotovilo razliko med resničnimi slikami in slikami, ustvarjenimi z umetno inteligenco, je bilo to še vedno daleč pod pričakovanim 85-odstotnim pragom.

Med pregledovanjem slik so bili udeleženci pozorni na podrobnosti, kot so oči, prsti, zobje in drugi indikatorji, ki so jih indikatorji pri iskanju umetne inteligence ustvarili slike, vendar "njihove ocene niso bile vedno pravilne."

"Ljudje niso tako spretni pri razlikovanju, kot mislijo, da so," je dejal glavni avtor študije Andrea Pocol, ki je tudi doktorski kandidat iz računalništva na univerzi.

Medtem ko lahko uporabniki interneta mimogrede pogledajo slike, so raziskovalci Waterlooja povedali, da so udeležencem omogočili, da so si vzeli čas za analizo slik.

»Ljudje, ki se samo pomikajo ali nimajo časa, ne bodo opazili teh namigov,« je dejal Pocol.

Preberite tudi: Generalni direktor Leonarda v Davosu poudarja neumnost uporabnikov glede groženj z umetno inteligenco

Zloraba tehnologije

Njihovo študija, z naslovom »Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media«, ki je objavljen v reviji Advances in Computer Graphics, prav tako poudarja tveganja, povezana z napredkom v generativni tehnologiji AI. .

Raziskovalci so z zaskrbljenostjo opazili tudi hitrost, s katero se generativna tehnologija umetne inteligence hitro spreminja in postaja vsak dan bolj izpopolnjena. Akademske raziskave in zakonodaja ne dohajajo razvoja v generativni industriji.

Pocol je dejal, da slike AI postajajo bolj resnične, zaradi česar nekateri ljudje težko zlahka razlikujejo med resničnimi slikami in slikami, ustvarjenimi z AI. Pocol je dejal, da to ustvarja plodna tla za slabe akterje, ki izkoriščajo tehnologijo za širjenje zlobe in ohranjanje dezinformacij ali za preslepitev ljudi.

"Dezinformacije niso nove, vendar se orodja za dezinformacije nenehno spreminjajo in razvijajo," je dejal Pocol.

»Lahko pride do točke, ko bodo ljudje, ne glede na to, kako usposobljeni bodo, še vedno težko razlikovali prave slike od ponaredkov. Zato moramo razviti orodja za prepoznavanje in boj proti temu. To je kot nova oboroževalna tekma z umetno inteligenco.«

Raziskovalci so tudi priznali izzive, ki jih predstavlja tehnologija, zlasti ko gre za širjenje globokih ponaredkov.

Tehnologija v napačnih rokah

Zaradi težav, ki jih imajo običajni ljudje pri razlikovanju med resničnimi in ponarejenimi slikami, se povečuje strah pred naraščajočim širjenjem globokih ponaredkov. Strokovnjaki so opozorili, da bodo slabi akterji izkoristili generativno tehnologijo umetne inteligence za širjenje volilnih laži v svojih poskusih zavajanja volivcev.

O Center za boj proti digitalnemu sovraštvu (CCDH), neprofitna organizacija, ki spremlja spletni sovražni govor, je že Opozoril v svojem poročilu, da generatorji slik, ki jih poganja AI, poslabšujejo napačne informacije o volitvah 2024.

»Možnost, da bi takšne slike, ustvarjene z umetno inteligenco, služile kot 'fotodokaz', bi lahko poslabšalo širjenje lažnih trditev, kar bi predstavljalo pomemben izziv za ohranjanje integritete volitev,« so v svojem poročilu zapisali raziskovalci CCDH.

Vendar se to zgodi ob napovedi, da bo približno 20 velikih tehnoloških podjetij, vključno z OpenAI, Microsoft in Stability AI podpisal sporazum da sodelujejo pri preprečevanju zavajajoče vsebine z umetno inteligenco, da bi »motila volitve, ki bodo potekale letos po vsem svetu.

Časovni žig:

Več od MetaNovice