На видео, опубликованном на китайской социальной сети Weibo на прошлой неделе, видно, как американская поп-звезда Тейлор Свифт свободно говорит на китайском языке. Только в клипе был не 33-летний певец. Это было дипфейковое видео, созданное с помощью инструмента искусственного интеллекта китайского стартапа HeyGen.
С 21 октября, когда впервые появился дипфейк Свифта. общие, видео собрало более шести миллионов просмотров. Но это также вызвало дебаты о потенциальных ловушках, которые могут возникнуть по мере того, как ИИ становится более продвинутым, что затрудняет различие между реальными и фальшивыми личностями или контентом.
Дипфейки — реалистичные, но фальшивые изображения или видео, используемые для выдачи себя за кого-то другого, в том числе за его голос, — могут быть использованы для создания ложных цифровых удостоверений личности, что киберпреступники могут использовать для совершения мошенничества. Изображения и видео выглядят и говорят точно так же, как целевой человек.
В мае, например, китайский бизнесмен потерял 4.3 миллиона юаней [$612,000 XNUMX] после того, как мошенник использовал искусственный интеллект, подменяющий лица, чтобы выдать себя за своего друга. В дипфейке Тейлор Свифт не было никаких потерь денег, но вот на что следует обратить внимание, чтобы не быть обманутым в социальных сетях.
ИИ и социальная инженерия: тихая угроза
Раскройте растущий риск социальной инженерии, основанной на искусственном интеллекте. Узнайте, как защитить себя.#AI #дипфейки # дезинформация #uthkithk pic.twitter.com/FQquIWXuJa
— Ты думаешь, я думаю (@uthkithk) 27 октября 2023
Проверьте поддержку знаменитостей с помощью искусственного интеллекта
Мошенники обычно используют искусственные подделки доверенных лиц, чтобы заманить своих жертв. В последние месяцы появилось бесчисленное количество фальшивых знаменитостей, использующих искусственный интеллект, которые обманывают людей ложными одобрениями. Поддельные версии таких икон, как Илон Маск и Бейонсе, предназначены для продвижения поддельных брендов.
Судя по всему, многие ложные объявления занимают более высокие позиции в результатах поиска Google, вероятно, потому, что компания не делает достаточных мер для фильтрации мошеннического контента.
Однако в эпоху фейкового контента, генерируемого искусственным интеллектом, крайне важно критически относиться к видеороликам, которые слишком хороши, чтобы быть правдой. Экстраординарные утверждения требуют экстраординарных доказательств. Если вы встретите вирусные видео, которые кажутся сенсационными, найдите время, чтобы проверить их подлинность и источники.
«Если вам нужен совет по поводу продукта или услуги, посмотрите обзоры или найдите эксперта, который хорошо разбирается и может это доказать», — говорит эксперт по потребительским технологиям и радиоведущая Ким Командо.
«Еще один разумный шаг: загуглите продукт и актера в рекламе, а также слово «обзор». Если кому-то платят за поддержку продукта, в социальных сетях не будет одной случайной рекламы», — добавила она в статье. опубликованный Нью-Йорк Пост.
Читайте также: Тейлор Свифт, Эмма Уотсон и другие стали жертвами всплеска ИИ-порно
Обратите внимание на детали
Технология дипфейков особенно пугает, потому что она очень реалистична. Инструменты искусственного интеллекта, такие как Стабильная диффузия могут манипулировать голосами и движениями рта, позволяя людям поверить в подлинность видео- или аудиозаписи.
Помните, что Ghostwriter создан искусственным интеллектом Песня Дрейка и The Weeknd, который обманул миллионы людей, включая сервисы потоковой передачи музыки, заставив их думать, что это новый релиз? Чтобы обнаружить дипфейк, Алекс Ким, соучредитель и генеральный директор акселератора электронной коммерции Rice, основанного на искусственном интеллекте, предлагает:
«Обратите внимание на любые необычные несоответствия в видео, которое вы смотрите. Создатели контента, использующие дипфейки, обычно стараются сэкономить время, поэтому точная настройка деталей — это не то, на что они будут тратить время», — сказал Ким MetaNews.
«Это означает, что любые несовпадающие выражения лица, неестественные движения, странные артефакты, несовпадение голосов или синхронизация губ, скорее всего, будут присутствовать в дипфейковом видео», — сказала Ким, добавив:
«Особое внимание обратите на глаза, поскольку дипфейкам с ними приходится бороться больше всего».
Случай с китайским бизнесменом является напоминанием о том, что технология дипфейков — это мощный инструмент, который можно использовать как во благо, так и во зло. Регулирующие органы начали уделять больше внимания опасностям ИИ после того, как OpenAI запустила в ноябре своего вирусного чат-бота ChatGPT, что спровоцировало глобальную гонку ИИ.
Как MetaNews ранее переправуЭксперты предлагают разработать новые технологии, которые смогут обнаружить и предотвратить использование фейковых личных данных. Это может включать использование биометрических данных, таких как распознавание лиц или сканирование отпечатков пальцев, для проверки личности пользователей в Интернете.
Готовы сделать свои селфи неприкосновенными?@MITPhotoGuard — ваш цифровой телохранитель от ИИ-мошенников.
Небольшие, невидимые изменения защитят ваши фотографии от дипфейков и неприятных изменений — многообещающий золотой стандарт безопасности в Интернете.
☞ Вы беспокоитесь о сохранности своих фотографий? pic.twitter.com/blCBYw8REq
— M (@emilios_eth) 27 октября 2023
Проверьте фон на предмет подсказок
Хотя некоторые приложения используют водяные знаки для идентификации контента, созданного ИИ, с другими это не так очевидно. По словам Алекса Кима, пользователям придется сканировать фон изображений или видео, чтобы найти подсказки о дипфейковых материалах ИИ. Райс.вин ИСПОЛНИТЕЛЬНЫЙ ДИРЕКТОР.
«Если фон движется неестественно или освещение не совпадает с тенями на переднем плане, возможно, это дипфейк», — сказала Ким. «Детали, такие как текстура материалов или ее отсутствие, являются другими признаками».
«Ищите пикселизацию или размытость там, где ее не должно быть, особенно если это происходит на человеке. Естественные детали, такие как линии волос, уши, носы или черты лица, трудно передать в дипфейке, по крайней мере, убедительно».
Технологии искусственного интеллекта, которые по большей части остаются бесплатными и легкодоступными, используются злоумышленниками во многих отношениях. Изображения известных женщин-знаменитостей, в том числе Тейлор Свифт и Эммы Уотсон, были обработаны с помощью искусственного интеллекта для создания дипфейков. порнографическое содержание.
Новый инструмент искусственного интеллекта от Массачусетского технологического института (MIT) в США обещает обуздать дипфейки. Люди могут использовать Фотогвардия вносить «небольшие, невидимые изменения, чтобы защитить [свои] фотографии от дипфейков и неприятных изменений — многообещающий золотой стандарт онлайн-безопасности».
Алекс Ким рассказал MetaNews, что наиболее очевидный и распространенный способ выявить фейковые видеоролики с искусственным интеллектом в социальных сетях — это изучить каналы, на которых они размещаются.
«Вам стоит посмотреть, сколько каналов было опубликовано в последнее время, и были ли какие-либо большие всплески или резкие скачки в создании контента», — сказала Ким. «Если наблюдается резкий всплеск количества опубликованных видео, которые кажутся некачественными или странными, это верный признак того, что создатель использует дипфейки».
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://metanews.com/how-to-spot-ai-deepfakes-on-social-media/
- :имеет
- :является
- :нет
- :куда
- $UP
- 000
- 11
- 13
- 27
- 8
- a
- О нас
- ускоритель
- доступной
- По
- через
- актеры
- Ad
- добавленный
- добавить
- объявления
- продвинутый
- совет
- После
- против
- возраст
- AI
- Alex
- вдоль
- причислены
- американские
- an
- и
- любой
- подхода
- Программы
- МЫ
- около
- гайд
- AS
- At
- внимание
- аудио
- аутентичный
- подлинность
- избежать
- фон
- Плохой
- BE
- , так как:
- было
- не являетесь
- верить
- между
- большой
- биометрический
- телохранитель
- брендов
- предприниматель
- но
- by
- CAN
- случаев
- знаменитости
- Знаменитость
- Генеральный директор
- Канал
- каналы
- Chatbot
- ChatGPT
- китайский
- требования
- CO
- Соучредитель
- как
- совершать
- Общий
- Компания
- Рассматривать
- потребитель
- Бытовая Техника
- содержание
- создатели контента
- контентного создание
- может
- Создайте
- создание
- создатель
- Создатели
- критической
- решающее значение
- обуздание
- киберпреступники
- Опасности
- данным
- дебаты
- deepfakes
- развернуть
- подробнее
- обнаруживать
- развивающийся
- трудный
- Интернет
- выделить
- do
- не
- электронная коммерция
- легко
- легко
- Элон
- Elon Musk
- еще
- появившийся
- одобрять
- Подтверждения
- Проект и
- достаточно
- особенно
- , поскольку большинство сенаторов
- точно,
- пример
- эксперту
- эксперты
- выражения
- необычайный
- Глаза
- Глаза
- лицевой
- распознавания лиц
- не настоящие
- ложный
- Особенности
- женский пол
- фильтр
- Найдите
- отпечаток пальца
- Во-первых,
- плавающий
- Что касается
- мошенничество
- и мошенническими
- Бесплатно
- друг
- от
- получил
- генерируется
- получающий
- Глобальный
- Золото
- Золотой стандарт
- хорошо
- Рост
- происходит
- Есть
- Высокий профиль
- высший
- его
- кашель
- состоялся
- Как
- How To
- HTTP
- HTTPS
- человек
- i
- иконки
- определения
- тождества
- Личность
- if
- изображений
- in
- включают
- В том числе
- несоответствия
- лиц
- Институт
- в
- Грин- карта инвестору
- невидимый
- IT
- ЕГО
- всего
- только один
- Сохранить
- Ким
- Отсутствие
- Фамилия
- запустили
- УЧИТЬСЯ
- наименее
- Кредитное плечо
- Освещение
- такое как
- Вероятно
- посмотреть
- от
- серия
- сделать
- Создание
- манипулировать
- многих
- Массачусетс
- Массачусетский Технологический Институт
- согласование
- материала
- материалы
- Май..
- означает
- Медиа
- МетаНьюс
- миллиона
- миллионы
- MIT
- деньги
- месяцев
- БОЛЕЕ
- самых
- рот
- движения
- перемещение
- много
- Музыка
- Маск:
- натуральный
- Новые
- Новые технологии
- New York
- нет
- Ничто
- Ноябрь
- Очевидный
- окт
- of
- от
- on
- ONE
- онлайн
- только
- OpenAI
- or
- Другое
- Другое
- внешний
- за
- выплачен
- часть
- особенно
- ОПЛАТИТЬ
- Люди
- человек
- Фото
- Картинки
- Платформа
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- поп
- После
- размещены
- потенциал
- мощный
- представить
- довольно
- предотвращать
- предварительно
- вероятно
- Продукт
- Обещает
- многообещающий
- продвижении
- для защиты
- Доказывать
- Гонки
- Радио
- случайный
- ранг
- Читать
- реальные
- реалистичный
- последний
- признание
- запись
- Регулирующие органы
- освободить
- остатки
- напоминание
- требовать
- Итоги
- Отзывы
- Рис
- Снижение
- s
- безопасный
- Сохранность
- Сказал
- Сохранить
- говорит
- сканирование
- сканирование
- Поиск
- казаться
- обслуживание
- Услуги
- она
- должен
- Шоу
- подпись
- Признаки
- с
- певица
- ШЕСТЬ
- умный
- So
- Соцсети
- Социальная инженерия
- социальные сети
- некоторые
- Кто-то
- удалось
- песня
- Источники
- Говоря
- конкретный
- шип
- шипы
- Спотовая торговля
- стандарт
- Звезда
- Start-up
- и политические лидеры
- Шаг
- странный
- потоковый
- Потоковые службы
- Бороться
- предмет
- такие
- предлагать
- Предлагает
- Убедитесь
- Всплески
- SWIFT
- взять
- Говорить
- целевое
- технологии
- технологии
- Технологии
- чем
- который
- Ассоциация
- Нью-Йорк пост
- выходные
- их
- Там.
- Эти
- они
- think
- мышление
- этой
- время
- в
- заявил
- инструментом
- инструменты
- срабатывает
- правда
- надежных
- пытается
- твики
- типично
- нам
- использование
- используемый
- пользователей
- через
- обычно
- проверить
- версии
- жертвы
- Видео
- Видео
- Просмотры
- вирусный
- Режимы
- ГОЛОСА
- хотеть
- законопроект
- наблюдение
- Уотсон
- Путь..
- способы
- неделя
- были
- Что
- когда
- который
- КТО
- будете
- выиграть
- Word
- беспокоиться
- йорк
- Ты
- ВАШЕ
- себя
- зефирнет