Как распознать дипфейки с использованием искусственного интеллекта в социальных сетях

Как распознать дипфейки с использованием искусственного интеллекта в социальных сетях

Как обнаружить дипфейки с использованием искусственного интеллекта в социальных сетях PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

На видео, опубликованном на китайской социальной сети Weibo на прошлой неделе, видно, как американская поп-звезда Тейлор Свифт свободно говорит на китайском языке. Только в клипе был не 33-летний певец. Это было дипфейковое видео, созданное с помощью инструмента искусственного интеллекта китайского стартапа HeyGen.

С 21 октября, когда впервые появился дипфейк Свифта. общие, видео собрало более шести миллионов просмотров. Но это также вызвало дебаты о потенциальных ловушках, которые могут возникнуть по мере того, как ИИ становится более продвинутым, что затрудняет различие между реальными и фальшивыми личностями или контентом.

Дипфейки — реалистичные, но фальшивые изображения или видео, используемые для выдачи себя за кого-то другого, в том числе за его голос, — могут быть использованы для создания ложных цифровых удостоверений личности, что киберпреступники могут использовать для совершения мошенничества. Изображения и видео выглядят и говорят точно так же, как целевой человек.

В мае, например, китайский бизнесмен потерял 4.3 миллиона юаней [$612,000 XNUMX] после того, как мошенник использовал искусственный интеллект, подменяющий лица, чтобы выдать себя за своего друга. В дипфейке Тейлор Свифт не было никаких потерь денег, но вот на что следует обратить внимание, чтобы не быть обманутым в социальных сетях.

Проверьте поддержку знаменитостей с помощью искусственного интеллекта

Мошенники обычно используют искусственные подделки доверенных лиц, чтобы заманить своих жертв. В последние месяцы появилось бесчисленное количество фальшивых знаменитостей, использующих искусственный интеллект, которые обманывают людей ложными одобрениями. Поддельные версии таких икон, как Илон Маск и Бейонсе, предназначены для продвижения поддельных брендов.

Судя по всему, многие ложные объявления занимают более высокие позиции в результатах поиска Google, вероятно, потому, что компания не делает достаточных мер для фильтрации мошеннического контента.

Однако в эпоху фейкового контента, генерируемого искусственным интеллектом, крайне важно критически относиться к видеороликам, которые слишком хороши, чтобы быть правдой. Экстраординарные утверждения требуют экстраординарных доказательств. Если вы встретите вирусные видео, которые кажутся сенсационными, найдите время, чтобы проверить их подлинность и источники.

«Если вам нужен совет по поводу продукта или услуги, посмотрите обзоры или найдите эксперта, который хорошо разбирается и может это доказать», — говорит эксперт по потребительским технологиям и радиоведущая Ким Командо.

«Еще один разумный шаг: загуглите продукт и актера в рекламе, а также слово «обзор». Если кому-то платят за поддержку продукта, в социальных сетях не будет одной случайной рекламы», — добавила она в статье. опубликованный Нью-Йорк Пост.

Читайте также: Тейлор Свифт, Эмма Уотсон и другие стали жертвами всплеска ИИ-порно

Обратите внимание на детали

Технология дипфейков особенно пугает, потому что она очень реалистична. Инструменты искусственного интеллекта, такие как Стабильная диффузия могут манипулировать голосами и движениями рта, позволяя людям поверить в подлинность видео- или аудиозаписи.

Помните, что Ghostwriter создан искусственным интеллектом Песня Дрейка и The Weeknd, который обманул миллионы людей, включая сервисы потоковой передачи музыки, заставив их думать, что это новый релиз? Чтобы обнаружить дипфейк, Алекс Ким, соучредитель и генеральный директор акселератора электронной коммерции Rice, основанного на искусственном интеллекте, предлагает:

«Обратите внимание на любые необычные несоответствия в видео, которое вы смотрите. Создатели контента, использующие дипфейки, обычно стараются сэкономить время, поэтому точная настройка деталей — это не то, на что они будут тратить время», — сказал Ким MetaNews.

«Это означает, что любые несовпадающие выражения лица, неестественные движения, странные артефакты, несовпадение голосов или синхронизация губ, скорее всего, будут присутствовать в дипфейковом видео», — сказала Ким, добавив:

«Особое внимание обратите на глаза, поскольку дипфейкам с ними приходится бороться больше всего».

Случай с китайским бизнесменом является напоминанием о том, что технология дипфейков — это мощный инструмент, который можно использовать как во благо, так и во зло. Регулирующие органы начали уделять больше внимания опасностям ИИ после того, как OpenAI запустила в ноябре своего вирусного чат-бота ChatGPT, что спровоцировало глобальную гонку ИИ.

Как MetaNews ранее переправуЭксперты предлагают разработать новые технологии, которые смогут обнаружить и предотвратить использование фейковых личных данных. Это может включать использование биометрических данных, таких как распознавание лиц или сканирование отпечатков пальцев, для проверки личности пользователей в Интернете.

Проверьте фон на предмет подсказок

Хотя некоторые приложения используют водяные знаки для идентификации контента, созданного ИИ, с другими это не так очевидно. По словам Алекса Кима, пользователям придется сканировать фон изображений или видео, чтобы найти подсказки о дипфейковых материалах ИИ. Райс.вин ИСПОЛНИТЕЛЬНЫЙ ДИРЕКТОР.

«Если фон движется неестественно или освещение не совпадает с тенями на переднем плане, возможно, это дипфейк», — сказала Ким. «Детали, такие как текстура материалов или ее отсутствие, являются другими признаками».

«Ищите пикселизацию или размытость там, где ее не должно быть, особенно если это происходит на человеке. Естественные детали, такие как линии волос, уши, носы или черты лица, трудно передать в дипфейке, по крайней мере, убедительно».

Технологии искусственного интеллекта, которые по большей части остаются бесплатными и легкодоступными, используются злоумышленниками во многих отношениях. Изображения известных женщин-знаменитостей, в том числе Тейлор Свифт и Эммы Уотсон, были обработаны с помощью искусственного интеллекта для создания дипфейков. порнографическое содержание.

Новый инструмент искусственного интеллекта от Массачусетского технологического института (MIT) в США обещает обуздать дипфейки. Люди могут использовать Фотогвардия вносить «небольшие, невидимые изменения, чтобы защитить [свои] фотографии от дипфейков и неприятных изменений — многообещающий золотой стандарт онлайн-безопасности».

Алекс Ким рассказал MetaNews, что наиболее очевидный и распространенный способ выявить фейковые видеоролики с искусственным интеллектом в социальных сетях — это изучить каналы, на которых они размещаются.

«Вам стоит посмотреть, сколько каналов было опубликовано в последнее время, и были ли какие-либо большие всплески или резкие скачки в создании контента», — сказала Ким. «Если наблюдается резкий всплеск количества опубликованных видео, которые кажутся некачественными или странными, это верный признак того, что создатель использует дипфейки».

Отметка времени:

Больше от МетаНьюс