Дипфейки с использованием искусственного интеллекта также представляют угрозу для бизнеса. Вот почему – расшифровать

Дипфейки с использованием искусственного интеллекта также представляют угрозу для бизнеса. Вот почему – расшифровать

Дипфейки с использованием искусственного интеллекта также представляют угрозу для бизнеса — вот почему — Расшифруйте данные PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Пока технологические гиганты конкурируют за то, чтобы внедрить искусственный интеллект в массы и завладеть растущим рынком, гонка вооружений в области искусственного интеллекта способствует увеличению количества «глубоких фейков» видео и аудио — контента, который часто выглядит или звучит убедительно законно, но на самом деле является мошенническим искажением фактов. Согласно новому отчету, они также влияют на бизнес.

Дипфейки — это созданные искусственным интеллектом творения, такие как изображения, видео и аудио, которыми манипулируют с целью обмана людей. Мошенники используют дипфейки для мошенничества, вымогательствоили нанести ущерб репутации. Распространение генеративный ИИ Инструменты упростили мошенникам создание фейкового контента, как никогда.

Знаменитости и другие общественные деятели без их согласия вставляются в искусственные, а иногда и откровенные кадры, что иногда становится вирусным или может вызвать панику в социальных сетях. В отчете, предоставленном Decrypt, глобальная аудиторская фирма КПМГ написали, что бизнес-сектор также не застрахован от угрозы дипфейков.

Дипфейковый контент может использоваться в атаках социальной инженерии и других типах кибератак, направленных на компании, пишет KPMG, при этом такой контент также может повлиять на репутацию компаний и их лидеров. Ложные заявления представителей компании также могут использоваться в схемах мошенничества с клиентами или для того, чтобы убедить сотрудников предоставить информацию или перевести деньги незаконным субъектам.

КПМГ привел пример 2020 года о руководителе филиала гонконгской компании, которого обманом заставили перевести мошенникам средства компании на сумму 35 миллионов долларов, после того как он поверил, что его начальник разговаривал по телефону и приказывал ему это сделать. Вместо этого это было клонированное искусственным интеллектом воссоздание голоса руководителя — все это часть тщательно продуманной схемы по выманиванию денег у фирмы.

«Последствия кибератак с использованием синтетического контента — цифрового контента, который был создан или которым манипулировали в гнусных целях — могут быть огромными, дорогостоящими и иметь различные социально-экономические последствия, включая финансовые, репутационные, сервисные и геополитические, среди прочих». говорится в отчете.

Дипфейковые кадры пребывания Дональда Трампа за участие Ранее в этом году, Франциск носить роскошную одежду Balenciaga и Elon Musk продвижение мошенничества с криптовалютой стало вирусным в прошлом году, поскольку технология дипфейков улучшилась благодаря развитию инструментов искусственного интеллекта.

«Будь то дешевые фейки или дипфейки, экономическая модель значительно изменилась из-за генеративных моделей искусственного интеллекта», — пишет KPMG.

Помимо упомянутых выше общественных деятелей, в число известных знаменитостей, чьи изображения были украдены и использованы в сфальсифицированных материалах, входят актриса Эмма Уотсон и музыкант Тейлор Свифт. Но КПМГ бьет тревогу по поводу потенциального воздействия на бизнес и его порой выдающихся лидеров.

«Как фактор риска, дипфейковый контент представляет собой не просто проблему для социальных сетей, сайтов знакомств и индустрии развлечений — теперь это проблема совета директоров», — заявили в KPMG. «Для примера: почти все респонденты (92%) недавнего опроса KPMG о генеративном ИИ, в котором приняли участие 300 руководителей из разных отраслей и географических регионов, говорят, что их обеспокоенность по поводу рисков внедрения генеративного ИИ является умеренной или очень значительной».

Не только компании и знаменитости сталкиваются с ростом качества и количества дипфейковых видео в Интернете. Правительства и регулирующие органы также учитывают потенциальное влияние на общество и выборы, в то время как создатели таких инструментов ИИ взвешивают их потенциальное негативное влияние.

На прошлой неделе Федеральная избирательная комиссия США, ожидая использования дипфейков на выборах 2024 года, выступила с заявлением. ходатайствовать запретить использование искусственного интеллекта в предвыборной рекламе.

В случае одобрения агентство внесет поправки в действующие правила, касающиеся мошеннического искажения «полномочий кампании», и разъяснит, что запрет распространяется на заведомо вводящую в заблуждение рекламу кампаний с использованием ИИ.

«Регулирующие органы должны продолжать понимать и учитывать влияние развивающихся угроз на существующие правила», — сказал Мэтью Миллер, директор службы кибербезопасности в KPMG. Decrypt. «Предлагаемые требования к маркировке и водяным знакам контента, созданного ИИ, могут оказать положительное влияние».

В июле исследователи из Массачусетского технологического института предложило внесение изменений кода в крупные диффузионные модели для снижения риска дипфейков путем добавления крошечных изменений, которые трудно увидеть, но которые в конечном итоге меняют работу моделей, заставляя их генерировать изображения, которые не выглядят реальными. Мета, между тем, недавно сдержал инструмент ИИ из-за его потенциала дипфейка.

Ажиотаж вокруг творческого потенциала генеративных инструментов искусственного интеллекта умерился осознанием того, что они аналогичным образом могут создавать возможности для вредоносного контента. В конечном итоге, на фоне быстрого улучшения таких инструментов, Миллер призвал всех быть бдительными в отношении возможности появления фейкового контента.

«Общественность должна сохранять постоянную бдительность при взаимодействии через цифровые каналы», — сказал он. Расшифровать. «Ситуационная осведомленность и здравый смысл имеют большое значение для предотвращения инцидента. Если что-то «не кажется правильным», с высокой вероятностью это вредоносная деятельность».

Будьте в курсе крипто-новостей, получайте ежедневные обновления на свой почтовый ящик.

Отметка времени:

Больше от Decrypt