Исследователи отмечают, что по мере того, как разработчики генеративного ИИ продолжают совершенствовать свои модели, становится все труднее отличить реальные изображения от творений ИИ.
Исследование исследователей из Университет Ватерлоо установили, что людям трудно составить представление о реальном человеке и о человеке, созданном искусственным интеллектом.
Ниже ожидаемого порога
В ходе исследования исследователи из Университета Ватерлоо предоставили 20 немаркированных фотографий 260 участникам. На половине фотографий были изображены реальные люди, взятые из Google Images, а другая половина была создана искусственным интеллектом с помощью таких инструментов, как Dall-E и Стабильная диффузия.
Затем участников попросили пометить изображения, были ли они реальными или созданы искусственным интеллектом, и обосновать свои ответы.
Хотя 61% участников смогли отличить реальные изображения от изображений, созданных искусственным интеллектом, это все равно было намного ниже ожидаемого порога в 85%.
Изучая изображения, участники обращали внимание на такие детали, как глаза, пальцы, зубы и другие индикаторы, указывающие на то, что ИИ создает изображения, но «их оценки не всегда были верными».
«Люди не так искусны в проведении различий, как они думают», — сказал ведущий автор исследования Андреа Покол, которая также является кандидатом наук в области компьютерных наук в университете.
Хотя интернет-пользователи могут мимоходом просматривать изображения, исследователи Ватерлоо заявили, что позволили участникам не торопиться с анализом изображений.
«Люди, которые просто прокручивают события или у них нет времени, не уловят эти сигналы», — сказал Покол.
Читайте также: Генеральный директор Leonardo подчеркнул глупость пользователей в отношении угроз искусственного интеллекта в Давосе
Злоупотребление технологией
Их Исследование, озаглавленная «Видеть больше не верить: обзор состояния дипфейков, созданных искусственным интеллектом людей и других неправдивых медиа», опубликованная в журнале «Достижения в области компьютерной графики», также подчеркивает риски, связанные с достижениями в области генеративных технологий искусственного интеллекта. .
Исследователи также с беспокойством отметили скорость, с которой технология генеративного искусственного интеллекта быстро меняется, становясь все более сложной с каждым днем. Научные исследования и законодательство не поспевают за развитием генерирующей отрасли.
Покол сказал, что изображения, созданные искусственным интеллектом, становятся все более реальными, из-за чего некоторым людям становится трудно отличить реальные изображения от созданных искусственным интеллектом. Это, по словам Покола, создает благодатную почву для злоумышленников, которые используют технологии для распространения злобы и увековечивания дезинформации или для обмана людей.
«Дезинформация не нова, но инструменты дезинформации постоянно меняются и развиваются», — сказал Покол.
«Может дойти до того, что людям, независимо от того, насколько они обучены, все равно будет сложно отличить настоящие изображения от подделок. Вот почему нам необходимо разработать инструменты для выявления и противодействия этому. Это похоже на новую гонку вооружений ИИ».
Исследователи также признали проблемы, которые создает эта технология, особенно когда речь идет о распространении дипфейков.
Технология в чужих руках
Поскольку обычным людям трудно отличить настоящие изображения от фейковых, растут опасения по поводу увеличения распространения дипфейков. Эксперты предупредили, что злоумышленники воспользуются преимуществами генеративной технологии искусственного интеллекта для распространения фальсификаций на выборах в своих попытках ввести избирателей в заблуждение.
Ассоциация Центр противодействия цифровой ненависти (CCDH), некоммерческая организация, которая отслеживает разжигание ненависти в Интернете, уже предупреждал в своем отчете говорится, что генераторы изображений на базе искусственного интеллекта ухудшают дезинформацию о выборах 2024 года.
«Возможность использования таких изображений, созданных искусственным интеллектом, в качестве «фотодоказательств» может усугубить распространение ложных утверждений, создавая серьезную проблему для сохранения честности выборов», — заявили исследователи CCDH в своем отчете.
Однако это произошло на фоне объявления о том, что около 20 крупных технологических компаний, в том числе OpenAI, Microsoft и ИИ стабильности подписал соглашение работать вместе, чтобы не допустить, чтобы вводящий в заблуждение контент ИИ «вмешался в выборы, которые пройдут во всем мире в этом году».
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://metanews.com/the-line-between-real-and-fake-gets-too-thin-for-the-ordinary-eye/
- :является
- :нет
- :куда
- $UP
- 20
- 2024
- 7
- 9
- a
- О нас
- академический
- научные исследования
- признанный
- актеры
- искусный
- авансы
- плюс
- AI
- Поддержка
- разрешено
- уже
- причислены
- всегда
- Среди
- an
- анализировать
- и
- Объявление
- ответы
- появляется
- МЫ
- оружие
- AS
- оценки
- связанный
- At
- попытки
- внимание
- автор
- Плохой
- BE
- становление
- было
- верить
- ниже
- между
- большой
- большая технология
- но
- by
- кандидат
- проведение
- Генеральный директор
- вызов
- проблемы
- изменения
- требования
- выходит
- Компании
- компьютер
- Информатика
- Беспокойство
- постоянно
- содержание
- продолжать
- исправить
- может
- счетчик
- противодействие
- создали
- Создающий
- создание
- творения
- дал-и
- день
- deepfakes
- подробнее
- развивать
- застройщиков
- события
- разница
- дифференцировать
- трудный
- затруднения
- Интернет
- дезинформация
- различие
- выделить
- Dont
- каждый
- легко
- выборы
- Выборы
- особенно
- установленный
- развивается
- обострять
- ожидаемый
- опытные
- эксперты
- Глаза
- Глаза
- отсутствии
- не настоящие
- ложный
- фальшь
- страх
- плодородный
- Что касается
- от
- генерируется
- генеративный
- Генеративный ИИ
- генераторы
- получить
- получающий
- ГЛОБАЛЬНО
- графика
- земля
- Рост
- Половина
- Жесткий
- ненавидеть
- Есть
- имеющий
- основной момент
- Как
- Однако
- HTTPS
- Людей
- определения
- if
- изображение
- изображений
- in
- В том числе
- Увеличение
- все больше и больше
- индикаторы
- промышленность
- целостность
- Интернет
- IT
- журнал
- всего
- Сохранить
- этикетка
- вести
- Законодательство
- такое как
- линия
- дольше
- посмотреть
- искать
- Создание
- Вопрос
- Май..
- Медиа
- Microsoft
- дезинформация
- Модели
- Мониторы
- БОЛЕЕ
- Необходимость
- Новые
- нет
- некоммерческий
- отметил,
- of
- on
- онлайн
- or
- обычный
- Другое
- внешний
- за
- Темп
- выплачен
- новыми участниками
- Прохождение
- Люди
- увековечивать
- человек
- кандидат наук
- выбирать
- картина
- Картинки
- Часть
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- Точка
- представляет
- потенциал
- консервирование
- предотвращать
- при условии
- Гонки
- быстро
- Обменный курс
- Читать
- реальные
- отчету
- исследованиям
- исследователи
- Reuters
- показывать
- рисках,
- Сказал
- Наука
- служить
- СДВИГАЯ
- значительный
- некоторые
- сложный
- утонченность
- речь
- распространение
- Стабильность
- Область
- По-прежнему
- Бороться
- Кабинет
- такие
- Опрос
- взять
- приняты
- с
- технологии
- технологические компании
- Технологии
- сказать
- который
- Ассоциация
- Государство
- их
- тогда
- Там.
- Эти
- они
- тонкий
- think
- этой
- В этом году
- угрозы
- порог
- время
- титулованный
- в
- вместе
- слишком
- инструменты
- специалистов
- Университет
- Информация о пользователе
- пользователей
- через
- избирателей
- предупреждал
- законопроект
- Путь..
- we
- были
- когда
- который
- в то время как
- КТО
- зачем
- будете
- Работа
- работать вместе
- Неправильно
- год
- зефирнет