Киберпреступность, основанная на искусственном интеллекте, взорвется в 2024 году: руководитель CrowdStrike – расшифровка

Киберпреступность, основанная на искусственном интеллекте, взорвется в 2024 году: руководитель CrowdStrike – расшифровать

Киберпреступность, основанная на искусственном интеллекте, взорвется в 2024 году: руководитель CrowdStrike — расшифровка данных PlatoBlockchain. Вертикальный поиск. Ай.

Новый год принесет с собой новые угрозы кибербезопасности, основанные на искусственном интеллекте, сообщил директор службы безопасности CrowdStrike Шон Генри. CBS утром во вторник.

«Я думаю, что это серьезная проблема для всех», — сказал Генри.

«ИИ действительно предоставил этот чрезвычайно мощный инструмент в руки обычного человека и сделал его невероятно более способным», — объяснил он. «Поэтому злоумышленники используют ИИ, эту новую инновацию, чтобы преодолеть различные возможности кибербезопасности и получить доступ к корпоративным сетям».

Генри подчеркнул использование искусственного интеллекта для проникновения в корпоративные сети, а также для распространения дезинформации в Интернете с использованием все более сложных видео, аудио и текстовых дипфейков.

Генри подчеркнул необходимость смотреть на источник информации и никогда не принимать что-либо опубликованное в Интернете за чистую монету.

«Вы должны проверить, откуда оно взялось», — сказал Генри. «Кто рассказывает эту историю, какова их мотивация и можете ли вы проверить это с помощью нескольких источников?»

«Это невероятно сложно, потому что у людей — когда они используют видео — у них есть 15 или 20 секунд, у них нет времени или зачастую они не прилагают усилий, чтобы получить эти данные, и это проблема».

Отметив, что 2024 год является годом выборов в нескольких странах, включая США, Мексику, Южную Африку, Тайвань и Индию, Генри сказал, что на выборах стоит сама демократия, а киберпреступники стремятся воспользоваться политическим хаосом, используя искусственный интеллект.

«Мы видели, как иностранные противники нацелились на выборы в США в течение многих лет, это было не только в 2016 году. [Китай] нацелился на нас еще в 2008 году», — сказал Генри. «На протяжении многих лет мы видели, как Россия, Китай и Иран занимались такого рода дезинформацией и дезинформацией; они обязательно воспользуются им снова здесь в 2024 году».

«Люди должны понимать, откуда берется информация», — сказал Генри. «Потому что есть люди, которые имеют гнусные намерения и создают огромные проблемы».

Особую озабоченность на предстоящих выборах в США в 2024 году вызывает безопасность машин для голосования. Когда Генри спросили, можно ли использовать ИИ для взлома машин для голосования, он выразил оптимизм по поводу того, что децентрализованный характер системы голосования в США предотвратит это.

«Я думаю, что наша система в Соединенных Штатах очень децентрализована», — сказал Генри. «Есть отдельные области, на которые можно было бы нацелиться, например списки избирателей и т. д., [но] я не думаю, что проблема подсчета голосов избирателей в широком масштабе повлияет на выборы — я не думаю, что это серьезная проблема. »

Генри подчеркнул способность ИИ предоставлять не очень техническим киберпреступникам доступ к техническому оружию.

«ИИ представляет собой очень эффективный инструмент в руках людей, которые могут не обладать высокими техническими навыками», — сказал Генри. «Они могут писать код, создавать вредоносное программное обеспечение, фишинговые электронные письма и т. д.»

В октябре Корпорация RAND опубликовал отчет, в котором предполагается, что генеративный ИИ может быть взломан, чтобы помочь террористам в планировании биологических атак.

«Как правило, если злоумышленник явно выражает [свои намерения], вы получите ответ типа: «Извините, я не могу вам с этим помочь», — соавтор и старший инженер RAND Corporation Кристофер Мутон рассказал Decrypt в интервью. «Поэтому вам обычно приходится использовать один из этих методов взлома или быстрое проектирование, чтобы оказаться на один уровень ниже этих ограждений».

В отдельном отчете фирма по кибербезопасности Косая черта сообщили, что с начала 1265 года количество фишинговых атак по электронной почте выросло на 2023%.

Мировые политики потратили большую часть 2023 года на поиск способов регулирования и пресечения неправомерного использования генеративный ИИ, включая Генерального секретаря ООН, который забил тревогу по поводу использования дипфейков, созданных ИИ, в конфликтные зоны.

В августе Федеральная избирательная комиссия США выдвинула ходатайствовать запретить использование искусственного интеллекта в предвыборной рекламе перед выборами 2024 года.

Технологические гиганты Microsoft и Meta объявили о новых сборах направлен на сдерживание политической дезинформации с помощью искусственного интеллекта.

«В 2024 году мир может увидеть, как несколько авторитарных национальных государств попытаются вмешаться в избирательные процессы», — заявили в Microsoft. «И они могут сочетать традиционные методы с искусственным интеллектом и другими новыми технологиями, чтобы поставить под угрозу целостность избирательных систем».

Даже Франциск, который стал объектом вирусных дипфейков, созданных искусственным интеллектом, неоднократно обращался к искусственному интеллекту в проповедях.

«Нам необходимо осознавать происходящие сейчас быстрые преобразования и управлять ими таким образом, чтобы защищать фундаментальные права человека и уважать институты и законы, способствующие комплексному человеческому развитию», – сказал Папа Франциск. «Искусственный интеллект должен служить нашему лучшему человеческому потенциалу и нашим высшим стремлениям, а не конкурировать с ними».

Будьте в курсе крипто-новостей, получайте ежедневные обновления на свой почтовый ящик.

Отметка времени:

Больше от Decrypt