Межа між реальним і штучним інтелектом надто тонка для ока

Межа між реальним і штучним інтелектом надто тонка для ока

Line Between Real and AI Creation Too Thin for the Eye PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Оскільки розробники генеративного штучного інтелекту продовжують вдосконалювати свої моделі, стає все важче відрізнити реальні зображення від творінь штучного інтелекту, показують дослідники.

Дослідження дослідників з Університет Ватерлоо встановлено, що людям важко розрізнити зображення реальної людини та людини, створеної ШІ.

Нижче очікуваного порогу

Проводячи дослідження, дослідники з Університету Ватерлоо надали 20 фотографій без позначок 260 учасникам. Половина фотографій були реальними людьми, зробленими з Google Images, а інша половина була створена штучним інтелектом за допомогою таких інструментів, як Dall-E і Стабільна дифузія.

Потім учасників попросили позначити зображення, чи були вони реальними чи створеними штучним інтелектом, обґрунтувавши свої відповіді.

Хоча 61% учасників могли відрізнити реальні зображення від зображень, створених штучним інтелектом, це все одно було набагато нижче очікуваного порогу в 85%.

Під час ретельного вивчення зображень учасники звертали увагу на такі деталі, як очі, пальці, зуби та інші показники, які індикатори, шукаючи штучний інтелект, створювали зображення, але «їхні оцінки не завжди були правильними».

«Люди не такі вправні в розрізненні, як вони думають», сказав провідний автор дослідження Андреа Покол, яка також є доктором філософії з комп’ютерних наук в університеті.

Хоча користувачі Інтернету можуть мимохідь дивитися на зображення, дослідники Ватерлоо сказали, що вони дозволили учасникам не поспішати, щоб проаналізувати зображення.

«Люди, які просто займаються думкою або не мають часу, не зрозуміють ці підказки», — сказав Покол.

Читайте також: Генеральний директор Leonardo підкреслює дурість користувачів щодо загроз ШІ в Давосі

Зловживання технологією

Їх вчитися, під назвою «Побачити більше не віриш: опитування про стан дипфейків, людей, створених штучним інтелектом, та інших неправдивих медіа», який опубліковано в журналі Advances in Computer Graphics, також підкреслює ризики, пов’язані з прогресом у технології генеративного штучного інтелекту. .

Дослідники також із занепокоєнням відзначили швидкість, з якою генеративна технологія штучного інтелекту швидко змінюється, стаючи все більш досконалою з кожним днем. Академічні дослідження та законодавство не встигають за розвитком генеруючої галузі.

Покол сказав, що зображення штучного інтелекту стають більш реальними, тому деяким людям важко легко розрізняти реальні зображення та зображення, створені штучним інтелектом. За словами Покола, це створює сприятливий ґрунт для зловмисників, які користуються технологією для поширення злих намірів, увічнення дезінформації або обману людей.

«Дезінформація не нова, але інструменти дезінформації постійно змінюються та розвиваються», — сказав Покол.

«Це може дійти до точки, коли людям, незалежно від того, наскільки вони навчені, буде важко відрізнити справжні зображення від підробок. Ось чому нам потрібно розробити інструменти для виявлення та протидії цьому. Це як нова гонка озброєнь ШІ».

Дослідники також визнали проблеми, які створює технологія, особливо коли йдеться про розповсюдження дипфейків.

Технологія в чужих руках

У зв’язку з труднощами, з якими звичайні люди стикаються з розрізненням справжніх зображень від фальшивих, зростає побоювання щодо збільшення поширення дипфейків. Експерти попереджають, що зловмисники скористаються генеративною технологією штучного інтелекту для поширення виборчої неправди, намагаючись ввести виборців в оману.

Команда Центр протидії цифровій ненависті (CCDH), некомерційна організація, яка відстежує онлайн-мовлення ненависті попередили у своєму звіті про те, що генератори зображень на основі ШІ погіршують дезінформацію про вибори 2024 року.

«Потенціал використання таких зображень, створених штучним інтелектом, як «фотодоказів» може посилити поширення неправдивих тверджень, створюючи значну проблему для збереження чесності виборів», – йдеться у звіті дослідників CCDH.

Однак це сталося на тлі оголошення про те, що близько 20 великих технологічних компаній, у тому числі OpenAI, Microsoft і Stability AI підписали угоду працювати разом, щоб запобігти «втручанню оманливого контенту штучного інтелекту у вибори, які відбудуться у всьому світі цього року.

Часова мітка:

Більше від МетаНовини