Изменение ландшафта угроз: кибератаки с применением дипфейков PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Изменение ландшафта угроз: кибератаки Deepfake уже здесь

Вредоносные кампании, включающие использование технологий дипфейков, гораздо ближе, чем многие могут предположить. Кроме того, их смягчение и обнаружение затруднены.

Новое исследование использования и злоупотребления дипфейками киберпреступниками показывает, что все необходимые элементы для широкого использования этой технологии имеются и легко доступны на подпольных рынках и открытых форумах. Исследование Trend Micro показывает, что многие случаи фишинга с использованием дипфейков, компрометации деловой электронной почты (BEC) и рекламного мошенничества уже происходят и становятся все более частыми. быстрое изменение ландшафта угроз.

Больше не гипотетическая угроза

«От гипотетических угроз и угроз, проверяющих концепцию, [атаки с использованием дипфейков] перешли на ту стадию, когда незрелые преступники способны использовать такие технологии», — говорит Владимир Кропотов, исследователь безопасности из Trend Micro и главный автор исследования безопасности. отчет по теме, который поставщик средств безопасности опубликовал на этой неделе. 

«Мы уже видим, как дипфейки интегрированы в атаки на финансовые учреждения, мошенничество и попытки выдать себя за политиков», — говорит он, добавляя, что пугает то, что во многих из этих атак используются личности реальных людей — часто скопированные из контента, который они публикуют в социальных сетях. медиасети.

Одним из основных выводов исследования Trend Micro является наличие готовых инструментов, изображений и видео для создания дипфейков. Например, поставщик средств безопасности обнаружил, что множество форумов, включая GitHub, предлагают исходный код для разработки дипфейков любому желающему. Аналогичным образом, злоумышленникам доступно достаточно высококачественных изображений и видео обычных людей и общественных деятелей, чтобы они могли создавать миллионы фальшивых личностей или выдавать себя за политиков, лидеров бизнеса и других известных личностей.

На подпольных форумах также растет спрос на услуги дипфейков и людей, разбирающихся в этой теме. Trend Micro обнаружила рекламу преступников, которые искали эти навыки для проведения мошенничества с криптовалютой и мошенничества, нацеленного на отдельные финансовые счета. 

«Актеры уже могут выдавать себя за политиков, руководителей высшего звена и знаменитостей», — говорится в отчете Trend Micro. «Это может значительно повысить вероятность успеха некоторых атак, таких как финансовые схемы, кратковременные кампании по дезинформации, манипулирование общественным мнением и вымогательство».

Множество рисков

Также растет риск того, что украденные или воссозданные личности, принадлежащие обычным людям, будут использоваться для обмана выдаваемых за них жертв или для ведения злонамеренных действий под их личностью. 

Во многих дискуссионных группах Trend Micro обнаружила, что пользователи активно обсуждают способы использования дипфейков для обхода банковских и других средств контроля проверки учетных записей, особенно тех, которые включают методы видео- и личной проверки.

Например, преступники могут использовать личность жертвы и использовать ее фейковое видео для открытия банковских счетов, которые впоследствии могут быть использованы для отмывания денег. По данным Trend Micro, они также могут похищать учетные записи, выдавать себя за руководителей высшего звена организаций, чтобы инициировать мошеннический перевод денег, или подбрасывать фальшивые доказательства для вымогательства у отдельных лиц. 

По словам поставщика средств безопасности, такие устройства, как Alexa от Amazon и iPhone, которые используют распознавание голоса или лица, вскоре могут оказаться в списке целевых устройств для атак на основе дипфейков.

«Поскольку многие компании по-прежнему работают в удаленном или смешанном режиме, существует повышенный риск выдача себя за персонал во время конференц-связи которые могут повлиять на внутренние и внешние бизнес-коммуникации, а также на чувствительные бизнес-процессы и финансовые потоки», — говорит Кропотов.

Trend Micro не единственная, кто бьет тревогу по поводу дипфейков. Недавний онлайн-опрос, проведенный VMware среди 125 специалистов по кибербезопасности и реагированию на инциденты, также показал, что угрозы с использованием дипфейков приходят не просто так — они уже здесь. Поразительные 66% — на 13% больше, чем в 2021 году — респондентов заявили, что за последние 12 месяцев они столкнулись с инцидентом безопасности, связанным с использованием дипфейков.

«Примеры дипфейковых атак, свидетелями которых мы уже стали, включают голосовые звонки генерального директора финансовому директору. ведущий к банковскому переводу, а также звонки сотрудников в ИТ-отдел с просьбой инициировать сброс пароля», — говорит Рик МакЭлрой, главный специалист по стратегии кибербезопасности VMware.

Несколько способов смягчения последствий дипфейковых атак, а их обнаружение затруднено

Вообще говоря, эти типы атак могут быть эффективными, поскольку пока не существует технологических решений для решения этой проблемы, говорит МакЭлрой. 

«Учитывая растущее использование и сложность создания дипфейков, я рассматриваю это как одну из самых больших угроз для организаций с точки зрения мошенничества и мошенничества в будущем», — предупреждает он. 

Самый эффективный способ смягчить угрозу в настоящее время Целью является повышение осведомленности о проблеме среди финансовых, исполнительных и ИТ-команд, которые являются основными целями атак социальной инженерии. 

«Организации могут рассмотреть низкотехнологичные методы, чтобы разорвать порочный круг. Это может включать в себя использование вызова и парольной фразы среди руководителей при выводе денег из организации или двухэтапный и проверенный процесс утверждения», — говорит он.

Гил Дабах, соучредитель и генеральный директор Piaano, также рекомендует строгий контроль доступа в качестве смягчающей меры. По его словам, ни один пользователь не должен иметь доступ к большим объемам личных данных, и организациям необходимо устанавливать ограничения скорости, а также обнаруживать аномалии.

«Даже такие системы, как бизнес-аналитика, которые требуют анализа больших данных, должны иметь доступ только к замаскированным данным», — отмечает Дабах, добавляя, что никакие конфиденциальные личные данные не должны храниться в открытом виде, а такие данные, как PII, должны быть токенизированы и защищены.

Тем временем на фронте обнаружения развиваются такие технологии, как искусственный интеллект. Генеративные состязательные сети (GAN) усложнили обнаружение дипфейков. «Это означает, что мы не можем полагаться на контент, содержащий «артефактные» подсказки о том, что произошли изменения», — говорит Лу Стейнберг, соучредитель и управляющий партнер CTM Insights.

Чтобы обнаружить манипулируемый контент, организациям нужны отпечатки пальцев или подписи, подтверждающие, что что-то не изменилось, добавляет он.

«Еще лучше — взять микроотпечатки пальцев по частям контента и иметь возможность определить, что изменилось, а что нет», — говорит он. «Это очень ценно, когда изображение было отредактировано, но тем более, когда кто-то пытается скрыть изображение от обнаружения».

Три широкие категории угроз

Стейнберг говорит, что дипфейковые угрозы делятся на три большие категории. Первый — это кампании по дезинформации, в основном включающие редактирование законного контента с целью изменения его смысла. В качестве примера Стейнберг указывает на представителей национальных государств, которые используют фейковые новостные изображения и видео в социальных сетях или вставляют в фотографию кого-то, чего изначально не было — то, что часто используется для таких вещей, как подразумеваемая реклама продукта или порноместь.

Другая категория включает в себя незначительные изменения изображений, логотипов и другого контента для обхода автоматических средств обнаружения, таких как те, которые используются для обнаружения поддельных логотипов продуктов, изображений, используемых в фишинговых кампаниях, или даже инструментов для обнаружения детской порнографии.

Третья категория включает в себя синтетические или составные дипфейки, которые создаются на основе коллекции оригиналов для создания чего-то совершенно нового, говорит Стейнберг. 

«Мы начали наблюдать это в аудио несколько лет назад, используя компьютерно-синтезированную речь для устранения голосовых отпечатков в колл-центрах финансовых услуг», — говорит он. «Видео теперь используется для таких вещей, как современная версия компрометации деловой электронной почты или для нанесения ущерба репутации, когда кто-то «говорит» то, чего он никогда не говорил».

Отметка времени:

Больше от Темное чтение