Realin ja tekoälyn luomisen välinen raja on liian ohut silmälle

Realin ja tekoälyn luomisen välinen raja on liian ohut silmälle

Realin ja tekoälyn luomisen välinen raja on liian ohut Eye PlatoBlockchain -tietoälylle. Pystysuuntainen haku. Ai.

Kun generatiiviset tekoälykehittäjät jatkavat malliensa hienosäätämistä pitkälle, on myös yhä vaikeampaa erottaa toisistaan ​​todelliset kuvat ja tekoälyn luomukset, tutkijat paljastavat.

Tutkijoiden tekemä tutkimus University of Waterloo todettiin, että ihmisten on vaikea hahmottaa kuvaa todellisesta henkilöstä ja tekoälyn luomasta henkilöstä.

Odotetun kynnyksen alapuolella

Waterloon yliopiston tutkijat toimittivat tutkimusta suorittaessaan 20 kuvaamatonta kuvaa 260 osallistujalle. Puolet kuvista oli oikeita ihmisiä otettuja Google Kuvahausta, kun taas toinen puoli oli tekoälyä, joka oli luotu työkaluilla, kuten Dall-E ja Vakaa diffuusio.

Osallistujia pyydettiin sitten merkitsemään kuvat, olivatko ne todellisia vai tekoälyn luomia, perustellakseen vastauksensa.

Vaikka 61 % osallistujista pystyi erottamaan oikeiden kuvien ja tekoälyn luomien kuvien välillä, tämä oli silti paljon alle odotetun 85 %:n kynnyksen.

Kuvia tarkastellessaan osallistujat kiinnittivät huomiota yksityiskohtiin, kuten silmiin, sormiin, hampaisiin ja muihin indikaattoreihin, jotka osoittavat tekoälyn luomia kuvia etsiessään, mutta "heidän arvionsa eivät aina olleet oikein."

"Ihmiset eivät ole niin taitavia erottamaan toisistaan ​​kuin he luulevat olevansa" sanoi tutkimuksen johtava kirjoittaja Andrea Pocol, joka on myös tietojenkäsittelytieteen tohtorikandidaatti yliopistossa.

Vaikka Internetin käyttäjät voivat katsoa kuvia ohimennen, Waterloon tutkijat sanoivat, että he antoivat osallistujille aikaa analysoida kuvia.

"Ihmiset, jotka vain rullaavat tai joilla ei ole aikaa, eivät ota vastaan ​​näitä vihjeitä", sanoi Pocol.

Lue myös: Leonardon toimitusjohtaja korostaa käyttäjien tyhmyyttä tekoälyn uhkien vuoksi Davosissa

Teknologian väärinkäyttö

Niiden opiskellaAdvances in Computer Graphics -tiedelehdessä, jonka otsikko on "Seeing Is No More Believing: A Survey on the State of Deepfakes, AI-Generated Humans and Other Nonveridical Media", tuo myös esiin riskejä, jotka liittyvät generatiivisen tekoälytekniikan kehitykseen. .

Tutkijat panivat myös huolestuneena merkille nopeuden, jolla generatiivinen tekoälyteknologia muuttuu nopeasti ja kehittyy päivä päivältä entistä kehittyneempään. Akateeminen tutkimus ja lainsäädäntö eivät pysy generatiivisen teollisuuden kehityksen tahdissa.

Pocol sanoi, että tekoälykuvat ovat tulossa todellisempia, mikä tekee joidenkin ihmisten vaikeaksi erottaa helposti todelliset ja tekoälyn luomat kuvat. Pocol sanoi, että tämä luo hedelmällisen maaperän pahoille toimijoille, jotka käyttävät hyväkseen tekniikkaa levittääkseen pahuutta ja ylläpitääkseen disinformaatiota tai huijatakseen ihmisiä.

"Disinformaatio ei ole uutta, mutta disinformaation työkalut ovat jatkuvasti muuttuneet ja kehittyneet", Pocol sanoi.

"Se voi päästä pisteeseen, jossa ihmiset, olivatpa he kuinka koulutettuja, kamppailevat silti erottaakseen todelliset kuvat väärennöksistä. Siksi meidän on kehitettävä työkaluja tämän tunnistamiseksi ja torjumiseksi. Se on kuin uusi tekoälyn asevarustelu."

Tutkijat ovat myös tunnustaneet teknologian asettamat haasteet erityisesti syväväärennösten leviämisen osalta.

Tekniikka väärissä käsissä

Koska tavallisilla ihmisillä on vaikeuksia erottaa toisistaan ​​todelliset ja väärennetyt kuvat, on olemassa kasvavaa pelkoa syväväärennösten leviämisen lisääntymisestä. Asiantuntijat ovat varoittaneet, että huonot toimijat käyttävät hyväkseen generatiivista tekoälytekniikkaa levittääkseen vaalivalheita yrittäessään johtaa äänestäjiä harhaan.

- Digitaalisen vihan vastainen keskus (CCDH), voittoa tavoittelematon järjestö, joka valvoo verkossa vihapuhetta varoitti Raportissaan, että tekoälyllä toimivat kuvageneraattorit pahentavat vuoden 2024 vaalien väärää tietoa.

"Tällaisten tekoälyn luomien kuvien mahdollisuus toimia "valokuvatodisteena" voi pahentaa väärien väitteiden leviämistä, mikä muodostaa merkittävän haasteen vaalien eheyden säilyttämiselle", CCDH:n tutkijat sanoivat raportissaan.

Tämä tapahtuu kuitenkin keskellä ilmoitusta, jonka mukaan noin 20 suurta teknologiayritystä, mukaan lukien OpenAI, Microsoft ja Stability AI allekirjoitti sopimuksen tehdä yhteistyötä estääkseen tekoälyn petollisen sisällön "sekaantumasta maailmanlaajuisesti tänä vuonna pidettäviin vaaleihin.

Aikaleima:

Lisää aiheesta MetaNews