A valódi és a mesterséges intelligencia létrehozása közötti vonal túl vékony a szemnek

A valódi és a mesterséges intelligencia létrehozása közötti vonal túl vékony a szemnek

A valódi és a mesterséges intelligencia létrehozása közötti határ túl vékony az Eye PlatoBlockchain adatintelligenciához. Függőleges keresés. Ai.

Ahogy a generatív mesterséges intelligencia fejlesztői folyamatosan finomhangolják modelljeit, egyre nehezebb különbséget tenni a valódi képek és a mesterséges intelligencia alkotásai között – mutatják be a kutatók.

A kutatók tanulmánya a Waterloo Egyetem megállapította, hogy az emberek nehezen tudnak képet alkotni egy valós személyről és egy mesterséges intelligencia által generált személyről.

A várt küszöb alatt

A vizsgálat során a Waterloo Egyetem kutatói 20 felirat nélküli képet adtak át 260 résztvevőnek. A képek fele valós emberekről készült a Google Képekből, a másik fele pedig mesterséges intelligencia, amelyet olyan eszközökkel hoztak létre, mint a Dall-E és Stabil diffúzió.

A résztvevőket ezután arra kérték, hogy jelöljék meg a képeket, ha valódiak vagy mesterséges intelligencia által generáltak, és indokolják válaszaikat.

Bár a résztvevők 61%-a különbséget tudott tenni a valós képek és a mesterséges intelligencia által generált képek között, ez még mindig jóval a várt 85%-os küszöb alatt volt.

A képek átvizsgálása során a résztvevők figyelmet fordítottak a részletekre, például a szemekre, az ujjakra, a fogakra és más olyan mutatókra, amelyek a mesterséges intelligencia által létrehozott képek keresésekor mutatnak, de „értékeléseik nem mindig voltak helyesek”.

"Az emberek nem olyan ügyesek a különbségtételben, mint ahogyan hiszik" mondott a tanulmány vezető szerzője, Andrea Pocol, aki egyben az egyetem számítástechnikai doktorjelöltje is.

Míg az internetezők futólag nézegethetik a képeket, a waterlooi kutatók azt mondták, hogy lehetővé tették a résztvevőknek, hogy időt szánjanak a képek elemzésére.

„Azok az emberek, akik csak a végzetben görgetnek, vagy nincs idejük, nem fogják fel ezeket a jelzéseket” – mondta Pocol.

Lásd még: A Leonardo vezérigazgatója kiemeli a felhasználók butaságát az AI-fenyegetések miatt Davosban

Visszaélés a technológiával

A tanulmányAz Advances in Computer Graphics folyóiratban megjelenő „A látás már nem hisz: Felmérés a mélyhamisítások, mesterséges intelligencia által generált emberek és más nem hiteles médiák állapotáról” címmel szintén rávilágít a generatív mesterséges intelligencia technológia fejlődésével kapcsolatos kockázatokra. .

A kutatók aggodalommal állapították meg azt is, hogy a generatív mesterséges intelligencia technológia gyorsan változik, és napról napra kifinomultabbá válik. Az akadémiai kutatás és a jogalkotás nem követi a lépést a generatív ipar fejlődésével.

Pocol szerint az AI-képek egyre valóságosabbak, ami megnehezíti egyesek számára, hogy könnyen különbséget tudjanak tenni a valódi és a mesterséges intelligencia által generált képek között. Pocol szerint ez termékeny talajt teremt a rossz szereplők számára, akik kihasználják a technológiát rosszindulat terjesztésére, félretájékoztatás állandósítására vagy emberek megtévesztésére.

"A dezinformáció nem új keletű, de a dezinformáció eszközei folyamatosan változtak és fejlődtek" - mondta Pocol.

„Előfordulhat, hogy az emberek, akármilyen képzettek is lesznek, még mindig nehezen tudják megkülönböztetni a valódi képeket a hamisítványoktól. Ezért kell eszközöket kifejlesztenünk ennek azonosítására és ellensúlyozására. Olyan ez, mint egy új AI fegyverkezési verseny.”

A kutatók azt is elismerték, hogy a technológia kihívásokat jelent, különösen a mélyhamisítások terjedésében.

A technológia rossz kezekben van

Mivel a hétköznapi emberek nehézségeket tapasztalnak a valódi és hamis képek megkülönböztetésében, egyre nagyobb a félelem a mélyhamisítások terjedésének növekedésétől. Szakértők figyelmeztették, hogy a rossz szereplők kihasználják a generatív mesterséges intelligencia technológiát, hogy választási hazugságokat terjesszenek a szavazók félrevezetésére.

A A digitális gyűlölet elleni küzdelem központja (CCDH), az online gyűlöletbeszédet figyelő nonprofit szervezet már figyelmeztetett jelentésük szerint a mesterséges intelligencia által működtetett képgenerátorok rontják a 2024-es választási félretájékoztatást.

„Az ilyen mesterséges intelligencia által generált képek „fotóbizonyítékként” való felhasználásának lehetősége súlyosbíthatja a hamis állítások terjedését, ami jelentős kihívást jelent a választások integritásának megőrzésében” – áll a CCDH kutatói jelentésében.

Ez azonban egy bejelentés közepette, amelyben körülbelül 20 nagy technológiai vállalat, köztük OpenAI, a Microsoft és a Stability AI megállapodást írt alá együttműködni annak megakadályozásában, hogy a mesterséges intelligencia megtévesztő tartalma „beavatkozzon az idén világszerte zajló választásokba.

Időbélyeg:

Még több MetaNews