Грань между реальным созданием и искусственным интеллектом слишком тонка для глаза

Грань между реальным созданием и искусственным интеллектом слишком тонка для глаза

Граница между реальным созданием и созданием искусственного интеллекта слишком тонка для глаз PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Исследователи отмечают, что по мере того, как разработчики генеративного ИИ продолжают совершенствовать свои модели, становится все труднее отличить реальные изображения от творений ИИ.

Исследование исследователей из Университет Ватерлоо установили, что людям трудно составить представление о реальном человеке и о человеке, созданном искусственным интеллектом.

Ниже ожидаемого порога

В ходе исследования исследователи из Университета Ватерлоо предоставили 20 немаркированных фотографий 260 участникам. На половине фотографий были изображены реальные люди, взятые из Google Images, а другая половина была создана искусственным интеллектом с помощью таких инструментов, как Dall-E и Стабильная диффузия.

Затем участников попросили пометить изображения, были ли они реальными или созданы искусственным интеллектом, и обосновать свои ответы.

Хотя 61% участников смогли отличить реальные изображения от изображений, созданных искусственным интеллектом, это все равно было намного ниже ожидаемого порога в 85%.

Изучая изображения, участники обращали внимание на такие детали, как глаза, пальцы, зубы и другие индикаторы, указывающие на то, что ИИ создает изображения, но «их оценки не всегда были верными».

«Люди не так искусны в проведении различий, как они думают», — сказал ведущий автор исследования Андреа Покол, которая также является кандидатом наук в области компьютерных наук в университете.

Хотя интернет-пользователи могут мимоходом просматривать изображения, исследователи Ватерлоо заявили, что позволили участникам не торопиться с анализом изображений.

«Люди, которые просто прокручивают события или у них нет времени, не уловят эти сигналы», — сказал Покол.

Читайте также: Генеральный директор Leonardo подчеркнул глупость пользователей в отношении угроз искусственного интеллекта в Давосе

Злоупотребление технологией

Их Исследование, озаглавленная «Видеть больше не верить: обзор состояния дипфейков, созданных искусственным интеллектом людей и других неправдивых медиа», опубликованная в журнале «Достижения в области компьютерной графики», также подчеркивает риски, связанные с достижениями в области генеративных технологий искусственного интеллекта. .

Исследователи также с беспокойством отметили скорость, с которой технология генеративного искусственного интеллекта быстро меняется, становясь все более сложной с каждым днем. Научные исследования и законодательство не поспевают за развитием генерирующей отрасли.

Покол сказал, что изображения, созданные искусственным интеллектом, становятся все более реальными, из-за чего некоторым людям становится трудно отличить реальные изображения от созданных искусственным интеллектом. Это, по словам Покола, создает благодатную почву для злоумышленников, которые используют технологии для распространения злобы и увековечивания дезинформации или для обмана людей.

«Дезинформация не нова, но инструменты дезинформации постоянно меняются и развиваются», — сказал Покол.

«Может дойти до того, что людям, независимо от того, насколько они обучены, все равно будет сложно отличить настоящие изображения от подделок. Вот почему нам необходимо разработать инструменты для выявления и противодействия этому. Это похоже на новую гонку вооружений ИИ».

Исследователи также признали проблемы, которые создает эта технология, особенно когда речь идет о распространении дипфейков.

Технология в чужих руках

Поскольку обычным людям трудно отличить настоящие изображения от фейковых, растут опасения по поводу увеличения распространения дипфейков. Эксперты предупредили, что злоумышленники воспользуются преимуществами генеративной технологии искусственного интеллекта для распространения фальсификаций на выборах в своих попытках ввести избирателей в заблуждение.

Ассоциация Центр противодействия цифровой ненависти (CCDH), некоммерческая организация, которая отслеживает разжигание ненависти в Интернете, уже предупреждал в своем отчете говорится, что генераторы изображений на базе искусственного интеллекта ухудшают дезинформацию о выборах 2024 года.

«Возможность использования таких изображений, созданных искусственным интеллектом, в качестве «фотодоказательств» может усугубить распространение ложных утверждений, создавая серьезную проблему для сохранения честности выборов», — заявили исследователи CCDH в своем отчете.

Однако это произошло на фоне объявления о том, что около 20 крупных технологических компаний, в том числе OpenAI, Microsoft и ИИ стабильности подписал соглашение работать вместе, чтобы не допустить, чтобы вводящий в заблуждение контент ИИ «вмешался в выборы, которые пройдут во всем мире в этом году».

Отметка времени:

Больше от МетаНьюс