Киберпреступники просят ChatGPT создать вредоносный код

Киберпреступники просят ChatGPT создать вредоносный код

Киберпреступники просят ChatGPT создать вредоносный код PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Киберпреступники начинают использовать чрезвычайно популярную технологию OpenAI ChatGPT для быстрой и простой разработки кода для вредоносных целей.

Обращение к подпольным хакерским сайтам выявило первоначальные случаи разработки злоумышленниками инструментов киберугроз с использованием интерфейса большой языковой модели (LLM), который компания представила в конце ноября и открыла для публичного использования, согласно данным отдела информационной безопасности Check Point Research.

Хорошая [помощь] рука, чтобы закончить сценарий с хорошим объемом

Подобно подъему модели как услуга Исследователи заявили, что в мире киберпреступности ChatGPT открывает еще одну возможность для менее опытных мошенников легко запускать кибератаки. отчету В пятницу.

«Как мы и подозревали, некоторые из случаев ясно показали, что многие киберпреступники, использующие OpenAI, вообще не имеют навыков разработки», — написали они. «Хотя инструменты, которые мы представляем в этом отчете, довольно просты, это только вопрос времени, когда более изощренные злоумышленники усовершенствуют то, как они используют инструменты на основе ИИ во зло».

Не будем забывать, что ChatGPT также известен тем, что генерирует код с ошибками. запрещенное программное обеспечение генерируется системой ИИ, потому что она часто имеет серьезные недостатки. Но технология совершенствуется, и в прошлом месяце в отчете правительства Финляндии предупреждал Системы искусственного интеллекта уже используются для социальной инженерии и через пять лет могут вызвать огромный всплеск атак.

Машинное обучение ChatGPT возможности позволяет текстовому инструменту взаимодействовать в диалоговом режиме, когда пользователи вводят вопрос и получают ответ в формате диалога. Технология также может отвечать на дополнительные вопросы и оспаривать ответы пользователей.

Изощренность предложения OpenAI породила столько беспокоиться как энтузиазм, с образовательными учреждениями, организаторами конференций и другими группами, стремящимися запретить использование ChatGPT для всего, от школьных бумаг до исследовательской работы.

Аналитики в декабре убивают как ChatGPT можно использовать для создания всего потока заражения, от фишинговых писем до запуска реверсивной оболочки. Они также использовали чат-бота для создания бэкдора, который может динамически запускать сценарии, созданные с помощью инструмента ИИ. В то же время они показали, как это может помочь специалистам по кибербезопасности в их работе.

Сейчас его тестируют киберпреступники.

Тема под названием «ChatGPT — Преимущества вредоносных программ» появилась 29 декабря на широко используемом подпольном хакерском форуме, написанном человеком, который сказал, что экспериментирует с интерфейсом, чтобы воссоздать распространенные штаммы и методы вредоносных программ. Писатель показал код похитителя информации на основе Python, который ищет и копирует типы файлов и загружает их на жестко заданный FTP-сервер.

Check Point подтвердил, что код был взят из основного вредоносного ПО для кражи.

В другом примере автор использовал ChatGPT для создания простого фрагмента Java, который загружает общий клиент SSH и telnet, который тайно запускается в системе с помощью PowerShell.

«Этот человек, по-видимому, является технически ориентированным злоумышленником, и цель его постов — показать менее технически способным киберпреступникам, как использовать ChatGPT в злонамеренных целях, с реальными примерами, которые они могут немедленно использовать», — написали исследователи.

21 декабря человек, называющий себя USDoD, опубликовал инструмент шифрования, написанный на Python, который включает в себя различные операции шифрования, дешифрования и подписи. Он написал, что технология OpenAI дала ему «хорошую [помощь] руку, чтобы закончить сценарий с хорошим объемом».

Исследователи написали, что USDoD имеет ограниченные навыки разработки, но активно участвует в подпольном сообществе с историей продажи доступа к скомпрометированным организациям и украденным базам данных.

В другой ветке обсуждения, опубликованной на форуме в канун Нового года, говорилось о том, как легко использовать ChatGPT для создания рынка даркнета для торговли нелегальными инструментами, такими как вредоносные программы или наркотики, и украденными данными, такими как учетные записи и платежные карты.

Автор темы опубликовал некоторый код, созданный с помощью ChatGPT, который использует сторонние API для получения актуальных цен на такие криптовалюты, как биткойн, монеро и эфириум, для платежной системы торговой площадки.

На этой неделе злоумышленники говорили на подпольных форумах о других способах использования ChatGPT для различных схем, в том числе об использовании его с технологией OpenAI Dall-E 2 для создания произведений искусства для продажи в Интернете через законные сайты, такие как Etsy, и создания электронной книги или короткой главы по определенной теме. которые можно продавать в Интернете.

Чтобы получить больше информации о том, как можно злоупотреблять ChatGPT, исследователи обратились к ChatGPT. В своем ответе ChatGPT рассказал об использовании технологии искусственного интеллекта для создания убедительных фишинговых электронных писем и сообщений в социальных сетях, чтобы обманом заставить людей разглашать личную информацию или нажимать на вредоносные ссылки или создавать видео и аудио, которые можно использовать для дезинформации.

ChatGPT также защитил своего создателя.

«Важно отметить, что сама OpenAI не несет ответственности за любое злоупотребление ее технологией третьими лицами», — сказал чат-бот. «Компания предпринимает шаги для предотвращения использования ее технологии в злонамеренных целях, например, требует от пользователей согласия с условиями обслуживания, запрещающими использование ее технологии в незаконных или вредоносных целях». ®

Отметка времени:

Больше от Регистр