ChatGPT використовується для «якісного шахрайства»

ChatGPT використовується для «якісного шахрайства»

Зараз шахрайство в Інтернеті може стати набагато небезпечнішим, оскільки шахраї мають безперешкодний доступ до ChatGPT, Techradar звіти.

Широко популярний чат-бот ChatGPT на основі ШІ постійно потрапляє в заголовки газет. Завдяки своїй здатності писати все, починаючи від налагодження коду iframe і закінчуючи складним кодом комп’ютерного програмування, ChatGPT затвердив штучний інтелект як технічний модний термін року.

Незважаючи на величезну популярність і залучення, ChatGPT викликає занепокоєння щодо етики та регулювання.

Читайте також: Користувачі ChatGPT «втечуть з в’язниці» ШІ, звільнить Дена Альтер Его

Недавній звітом опублікований дослідниками кібербезпеки з Norton Labs, виклав три ключові способи, якими зловмисники можуть зловживати ChatGPT. У звіті зазначено, що ChatGPT може бути використаний для більш ефективного інтернет-шахрайства: шляхом генерації глибоко підробленого вмісту, створення фішингу та створення шкідливого програмного забезпечення.

«Лабораторії Norton очікують, що шахраї також розглядають можливості великих мовних моделей і тестують способи вдосконалення своїх кіберзлочинів, щоб зробити їх більш реалістичними та правдоподібними», — йдеться у звіті.

Здатність інструменту виробляти «високоякісну дезінформацію або дезінформацію у великих масштабах» може допомогти ботофермам ефективніше посилювати розбрат. За словами Нортона, це може дозволити зловмисникам без зусиль «вселяти сумніви та маніпулювати наративами кількома мовами».

Дуже переконлива «дезінформація»

Написання переконливих бізнес-планів, стратегій і описів компаній – це дитяча гра для ChatGPT. Однак цей потенціал також підвищує ризики дезінформації, яка може перетворитися на шахрайство.

«Мало того, що контент, створений ChatGPT, іноді ненавмисно є неправильним, але й зловмисники також можуть використовувати ці інструменти для навмисного створення контенту, який використовується, щоб певним чином завдати шкоди людям», — йдеться у звіті.

Його здатність генерувати «високоякісну дезінформацію або дезінформацію в масштабах може призвести до недовіри та сформувати наративи різними мовами».

Лабораторії Нортона

Лабораторії Нортона

Писати відгуки про продукти стало дедалі простіше з ChatGPT, який неможливо відстежити, оскільки він щоразу генерує індивідуальні відповіді з тією самою інформацією. Незважаючи на свої можливості, він ставить перед собою завдання «виявляти фальшиві відгуки та неякісні продукти».

Викликає занепокоєння те, що інструмент також може використовуватися для залякування.

«Використання цих інструментів у кампаніях переслідування в соціальних мережах, щоб змусити людей замовкнути або знущатися, також є можливим результатом, який матиме жахливий вплив на мову», — зазначається у звіті.

ChatGPT у фішингових кампаніях

ChatGPT особливо добре справляється зі створенням людського звучання тексту різними мовами, причому читачам не залишається байдужим щодо того, створений текст штучним інтелектом чи людиною. Навіть OpenAI, розробник ChatGPT, не може визначити, чи був текст написаний ШІ, заявляючи, що «неможливо надійно виявити весь текст, написаний ШІ».

Перспектива використання ChatGPT у фішингових кампаніях є реальною.

«Зловмисники можуть використовувати ChatGPT для створення фішингових електронних листів або публікацій у соціальних мережах, які нібито походять із законних джерел, що ускладнює виявлення та захист від таких загроз», — йдеться у звіті.

Зі зростанням його популярності ймовірним наслідком є ​​збільшення кількості «фішингових кампаній та їх складності».

У звіті йдеться про те, що «зловмисники можуть надавати ChatGPT реальні приклади нешкідливих повідомлень від компаній, яких вони хочуть видати за себе, і наказувати ШІ створювати нові на основі того самого стилю зі зловмисними намірами».

Такі кампанії можуть виявитися дуже успішними в обмані осіб з метою розкриття особистої інформації або надсилання грошей злочинним організаціям. Norton Labs радить споживачам бути обережними, «натискаючи посилання або надаючи особисту інформацію».

ChatGPT може створювати шкідливі програми

Створення коду та адаптація різних мов програмування є невід’ємною частиною послуг ChatGPT. Тож не дивно, що шахраї використовують його для створення шкідливого програмного забезпечення.

«За допомогою правильної підказки початківці автори зловмисного програмного забезпечення можуть описати, що вони хочуть зробити, і отримати робочі фрагменти коду», - йдеться у звіті. Це створює серйозну загрозу атак зловмисного програмного забезпечення, достатньо розвинутих, щоб спричинити хаос.

«Одним із прикладів є генерація коду для виявлення того, коли адреса біткойн-гаманця копіюється в буфер обміну, щоб її можна було замінити шкідливою адресою, контрольованою автором шкідливого програмного забезпечення», — пояснюється у звіті.

У результаті наявність такого чат-бота спричинить зростання складності шкідливого програмного забезпечення.

ПОДІЛИТИСЯ ЦІЄЮ ПУБЛІКАЦІЄЮ

Часова мітка:

Більше від МетаНовини