Кібершахраї наказують ChatGPT створити шкідливий код

Кібершахраї наказують ChatGPT створити шкідливий код

Кібершахраї кажуть ChatGPT створити шкідливий код PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Кіберзлочинці починають використовувати надзвичайно популярну технологію OpenAI ChatGPT для швидкої та легкої розробки коду для зловмисних цілей.

За даними інформаційно-захисного підрозділу Check Point Research, у ході підпільних хакерських сайтів були виявлені перші випадки розробки інструментів для боротьби з кіберзагрозами за допомогою інтерфейсу великої мовної моделі (LLM), який компанія оприлюднила наприкінці листопада та відкрила для загального використання.

Гарна [допомога], щоб завершити сценарій із гарним розмахом

Схожий на підйом о моделі як послуга У світі кіберзлочинності ChatGPT відкриває ще один шлях для менш досвідчених шахраїв, щоб легко запускати кібератаки, кажуть дослідники в звітом У п'ятницю.

«Як ми підозрювали, деякі випадки чітко показали, що багато кіберзлочинців, які використовують OpenAI, взагалі не мають навичок розробки», — написали вони. «Хоча інструменти, які ми представляємо в цьому звіті, є досить простими, це лише питання часу, поки більш досвідчені суб’єкти загроз покращать спосіб використання інструментів на основі ШІ для зла».

Не забуваймо, що ChatGPT також сумно відомий тим, що створює помилковий код – Stack Overflow заборонене програмне забезпечення генерується системою штучного інтелекту, оскільки вона часто має серйозні недоліки. Але технологія вдосконалюється, і минулого місяця уряд Фінляндії опублікував звіт попередили Системи штучного інтелекту вже використовуються для соціальної інженерії і через п’ять років можуть викликати величезний сплеск атак.

Машинне навчання ChatGPT можливості увімкніть текстовий інструмент для взаємодії в режимі розмови, коли користувачі вводять запитання та отримують відповідь у форматі діалогу. Технологія також може відповідати на додаткові запитання та оскаржувати відповіді користувачів.

Витонченість пропозиції OpenAI породила стільки ж турбуватися як ентузіазм, з навчальними закладами, організаторами конференцій та іншими групами, які намагаються заборонити використання ChatGPT для всього, від шкільних документів до дослідницької роботи.

Аналітики в грудні продемонстрований як ChatGPT можна використовувати для створення цілого потоку зараження, від фішингових електронних листів до запуску зворотної оболонки. Вони також використовували чат-бота для створення бекдор-зловмисного програмного забезпечення, яке може динамічно запускати сценарії, створені інструментом ШІ. У той же час вони показали, як це може допомогти професіоналам кібербезпеки в їхній роботі.

Зараз кіберзлочинці тестують це.

Повідомлення під назвою «ChatGPT – Переваги зловмисного програмного забезпечення» з’явилося 29 грудня на широко використовуваному підпільному хакерському форумі, написане особою, яка сказала, що експериментує з інтерфейсом, щоб відтворити поширені штами зловмисного програмного забезпечення та методи. Письменник показав код викрадача інформації на основі Python, який шукає та копіює типи файлів і завантажує їх на жорстко закодований FTP-сервер.

Check Point підтвердила, що код походить від зловмисного програмного забезпечення.

В іншому прикладі автор використовував ChatGPT для створення простого фрагмента Java, який завантажує звичайний клієнт SSH і Telnet, який таємно запускається в системі за допомогою PowerShell.

«Схоже, що ця особа є технічно орієнтованим загрозливим діячем, і мета його дописів — показати менш технічно здібним кіберзлочинцям, як використовувати ChatGPT для зловмисних цілей, з реальними прикладами, які вони можуть негайно використати», — пишуть дослідники.

21 грудня особа, яка називає себе USDoD, опублікувала інструмент шифрування, написаний на Python, який включає різні операції шифрування, дешифрування та підписання. Він написав, що технологія OpenAI дала йому «гарну [допомогу] руку, щоб завершити сценарій із гарним розмахом».

Дослідники пишуть, що USDoD має обмежені навички розробки, але активний у підпільній спільноті з історією продажу доступу до скомпрометованих організацій і вкрадених баз даних.

Інша дискусійна тема, опублікована на форумі напередодні Нового року, розповідала про те, як легко використовувати ChatGPT для створення темного веб-ринку для торгівлі незаконними інструментами, як-от зловмисне програмне забезпечення чи наркотики, і викраденими даними, такими як облікові записи та платіжні картки.

Автор теми опублікував код, створений за допомогою ChatGPT, який використовує сторонні API для отримання актуальних цін на такі криптовалюти, як Bitcoin, Monero та Ethereum, для платіжної системи ринку.

Цього тижня зловмисники обговорювали на підпільних форумах інші способи використання ChatGPT для різних схем, зокрема використання його з технологією Dall-E 2 від OpenAI для створення мистецтва для онлайн-продажу через законні сайти, такі як Etsy, і створення електронної книги чи короткого розділу на певну тему. які можна продати онлайн.

Щоб отримати більше інформації про те, як можна зловживати ChatGPT, дослідники запитали ChatGPT. У своїй відповіді ChatGPT говорив про використання технології штучного інтелекту для створення переконливих фішингових електронних листів і публікацій у соціальних мережах, щоб обманом змусити людей надати особисту інформацію чи натиснути шкідливі посилання, або створити відео та аудіо, які можуть бути використані для дезінформації.

ChatGPT також став на захист свого творця.

«Важливо зазначити, що сама OpenAI не несе відповідальності за будь-яке зловживання її технологією третіми сторонами», — сказав чат-бот. «Компанія вживає заходів, щоб запобігти використанню її технології для зловмисних цілей, наприклад, вимагає від користувачів погодитися з умовами обслуговування, які забороняють використання її технології для незаконних або шкідливих цілей». ®

Часова мітка:

Більше від Реєстр