ChatGPT используется для «качественной аферы»

ChatGPT используется для «качественной аферы»

Мошенничество в Интернете может стать намного опаснее благодаря тому, что мошенники имеют беспрепятственный доступ к ChatGPT, Techradar отчеты.

Широко популярный чат-бот ChatGPT на базе искусственного интеллекта постоянно попадает в заголовки. Благодаря своей способности писать все, от отладки кода iframe до сложного кода компьютерного программирования, ChatGPT сделал искусственный интеллект модным словечком года.

Несмотря на свою огромную популярность и вовлеченность, ChatGPT вызывает опасения по поводу этики и регулирования.

Читайте также: ИИ пользователей ChatGPT «побег из тюрьмы» и раскрытие альтер-эго Дэна

Недавнее отчету опубликованный исследователями кибербезопасности в Norton Labs, изложил три основных способа, которыми злоумышленники могут злоупотреблять ChatGPT. В отчете указывается, что ChatGPT можно использовать для более эффективного мошенничества в Интернете: путем создания глубоко поддельного контента, создания фишинга и создания вредоносных программ.

«Norton Labs ожидает, что мошенники также присматриваются к возможностям больших языковых моделей и тестируют способы улучшения своих киберпреступлений, чтобы сделать их более реалистичными и правдоподобными», — говорится в отчете.

Способность инструмента производить «высококачественную дезинформацию или дезинформацию в больших масштабах» может помочь ботоферм более эффективно усиливать разногласия. По словам Нортона, это может позволить злоумышленникам без особых усилий «внушать сомнения и манипулировать повествованиями на нескольких языках».

Очень убедительная «дезинформация»

Написание бизнес-планов, стратегий и описаний компаний в убедительной форме — это детская игра для ChatGPT. Однако этот потенциал также повышает риск дезинформации, которая может превратиться в мошенничество.

«Мало того, что контент, генерируемый ChatGPT, иногда непреднамеренно неправильный, но злоумышленник также может использовать эти инструменты для преднамеренного создания контента, который каким-либо образом вредит людям», — говорится в отчете.

Его способность генерировать «высококачественную дезинформацию или дезинформацию в масштабе может привести к недоверию и формированию нарративов на разных языках».

Нортон Лабс

Нортон Лабс

Написание отзывов о продуктах становится все проще благодаря ChatGPT, который невозможно отследить, поскольку он каждый раз генерирует отдельные ответы с одной и той же предоставленной информацией. Несмотря на свои возможности, он создает проблему «обнаружения поддельных отзывов и некачественных продуктов».

Вызывает беспокойство тот факт, что этот инструмент также может быть использован для издевательств.

«Использование этих инструментов в кампаниях по травле в социальных сетях, чтобы заставить людей замолчать или запугать их, также является возможным результатом, который окажет сдерживающий эффект на высказывания», — отмечается в отчете.

ChatGPT в фишинговых кампаниях

ChatGPT особенно хорошо умеет генерировать человеческий текст на разных языках, и читатели не задумываются о том, был ли текст создан искусственным интеллектом или человеком. Даже OpenAI, разработчик ChatGPT, не может определить, был ли текст написан ИИ, заявив, что «невозможно надежно определить весь текст, написанный ИИ».

Перспектива использования ChatGPT в фишинговых кампаниях вполне реальна.

«Злоумышленники могут использовать ChatGPT для создания фишинговых электронных писем или сообщений в социальных сетях, которые кажутся исходящими из законных источников, что затрудняет обнаружение и защиту от таких типов угроз», — говорится в отчете.

По мере роста его популярности вероятным следствием является увеличение количества «фишинговых кампаний и их изощренности».

В отчете говорится, что «злоумышленники могут скармливать ChatGPT реальные примеры невредоносных сообщений от компаний, которые они хотят выдать за себя, и приказывать ИИ создавать новые сообщения в том же стиле со злым умыслом».

Такие кампании могут оказаться весьма успешными в том, что касается обмана лиц, заставляющих их раскрывать личную информацию или отправлять деньги преступным организациям. Norton Labs посоветовала потребителям быть осторожными при «нажатии на ссылки или предоставлении личной информации».

ChatGPT может создавать вредоносное ПО

Генерация кода и адаптация различных языков программирования — это неотъемлемая часть услуг ChatGPT. Поэтому неудивительно, что мошенники используют его для создания вредоносных программ.

«С помощью подсказки начинающие авторы вредоносных программ могут описать, что они хотят сделать, и получить работающие фрагменты кода», — говорится в отчете. Это создает серьезную угрозу атак вредоносных программ, достаточно продвинутых, чтобы нанести ущерб.

«Одним из примеров является генерация кода для обнаружения того, когда адрес биткойн-кошелька копируется в буфер обмена, чтобы его можно было заменить вредоносным адресом, контролируемым автором вредоносного ПО», — поясняется в отчете.

В результате доступность такого чат-бота вызовет рост сложности вредоносного ПО.

ПОДЕЛИТЬСЯ ЭТОЙ ЗАПИСЬЮ

Отметка времени:

Больше от МетаНьюс