ChatGPT Digunakan untuk Membuat 'Penipuan Berkualitas'

ChatGPT Digunakan untuk Membuat 'Penipuan Berkualitas'

Penipuan di internet mungkin menjadi jauh lebih berbahaya sekarang, berkat penipu yang memiliki akses tanpa halangan ke ChatGPT, Techradar laporan.

Chatbot bertenaga AI yang sangat populer, ChatGPT, terus menjadi berita utama. Dengan kemampuannya untuk menulis semuanya mulai dari men-debug kode iframe hingga kode pemrograman komputer yang kompleks, ChatGPT telah menjadikan AI sebagai kata kunci teknologi tahun ini.

Terlepas dari popularitas dan keterlibatannya yang besar, ChatGPT menimbulkan kekhawatiran tentang etika dan regulasi.

Baca juga: Pengguna ChatGPT 'Jailbreak' AI, Unleash Dan Alter Ego

Sebuah baru-baru ini melaporkan diterbitkan oleh peneliti keamanan siber di Norton Labs memaparkan tiga cara utama pelaku ancaman dapat menyalahgunakan ChatGPT. Laporan tersebut mengindikasikan bahwa ChatGPT dapat disalahgunakan untuk melakukan penipuan internet dengan cara yang lebih efektif: melalui pembuatan konten palsu, pembuatan phishing, dan pembuatan malware.

“Norton Labs mengantisipasi scammers juga mengincar kemampuan model bahasa besar dan menguji cara untuk meningkatkan kejahatan dunia maya mereka agar lebih realistis dan dapat dipercaya,” kata laporan itu.

Kapasitas alat untuk menghasilkan “misinformasi berkualitas tinggi atau disinformasi dalam skala besar” dapat membantu peternakan bot dalam mengintensifkan perselisihan secara lebih efektif. Hal ini dapat memungkinkan pelaku jahat untuk dengan mudah “menanamkan keraguan dan memanipulasi narasi dalam berbagai bahasa,” menurut Norton.

'Informasi yang salah' yang sangat meyakinkan

Menulis rencana bisnis, strategi, dan deskripsi perusahaan dengan cara yang meyakinkan adalah permainan anak-anak untuk ChatGPT. Namun, potensi ini juga meningkatkan risiko misinformasi, yang dapat berubah menjadi penipuan.

“Tidak hanya konten yang dibuat oleh ChatGPT terkadang salah secara tidak sengaja, tetapi aktor jahat juga dapat menggunakan alat ini untuk secara sengaja membuat konten yang digunakan untuk menyakiti orang dengan cara tertentu,” kata laporan tersebut.

Kemampuannya untuk menghasilkan “misinformasi atau disinformasi berkualitas tinggi dalam skala besar dapat menyebabkan ketidakpercayaan dan membentuk narasi dalam berbagai bahasa.”

Laboratorium Norton

Laboratorium Norton

Menulis ulasan produk menjadi semakin mudah dengan ChatGPT, yang tidak dapat dilacak karena menghasilkan tanggapan individual dengan informasi yang diberikan sama setiap saat. Terlepas dari kemampuannya, ini menimbulkan tantangan untuk "menemukan ulasan palsu dan produk jelek".

Yang mengkhawatirkan, alat ini juga dapat digunakan untuk intimidasi.

“Menggunakan alat-alat ini dalam kampanye pelecehan di media sosial untuk membungkam atau menggertak orang juga merupakan kemungkinan hasil yang akan berdampak buruk pada ucapan,” catat laporan tersebut.

ChatGPT dalam kampanye phishing

ChatGPT sangat bagus dalam menghasilkan teks yang terdengar seperti manusia dalam bahasa yang berbeda, dengan pembaca yang tidak tahu apakah teks itu diproduksi oleh AI atau manusia. Bahkan OpenAI, pengembang ChatGPT, tidak dapat mengidentifikasi apakah sebuah teks ditulis oleh AI, menyatakan bahwa "tidak mungkin untuk mendeteksi semua teks yang ditulis oleh AI dengan andal."

Prospek ChatGPT digunakan dalam kampanye phishing adalah hal yang nyata.

“Aktor jahat dapat menggunakan ChatGPT untuk membuat email phishing atau postingan media sosial yang tampaknya berasal dari sumber yang sah, membuatnya lebih sulit untuk dideteksi dan dipertahankan dari jenis ancaman ini,” kata laporan tersebut.

Seiring popularitasnya meningkat, kemungkinan akibatnya adalah peningkatan jumlah "kampanye phishing dan kecanggihannya".

Laporan tersebut menyarankan bahwa "aktor jahat dapat memberi makan ChatGPT dengan contoh kehidupan nyata dari pesan tidak berbahaya dari perusahaan yang ingin mereka tiru dan memerintahkan AI untuk membuat yang baru berdasarkan gaya yang sama dengan niat jahat."

Kampanye semacam itu terbukti sangat berhasil dalam menipu individu agar mengungkapkan informasi pribadi atau mengirim uang ke entitas kriminal. Norton Labs menyarankan konsumen untuk berhati-hati saat "mengklik tautan atau memberikan informasi pribadi".

ChatGPT dapat membuat malware

Menghasilkan kode dan mengadaptasi bahasa pemrograman yang berbeda hanyalah bagian tak terpisahkan dari layanan ChatGPT. Jadi tidak heran penipu menggunakannya untuk menghasilkan malware.

“Dengan perintah yang tepat, pembuat malware pemula dapat menjelaskan apa yang ingin mereka lakukan dan mendapatkan cuplikan kode yang berfungsi,” menurut laporan tersebut. Ini menimbulkan ancaman serius dari serangan malware yang cukup canggih untuk mendatangkan malapetaka.

“Salah satu contohnya adalah menghasilkan kode untuk mendeteksi ketika alamat dompet bitcoin disalin ke clipboard sehingga dapat diganti dengan alamat jahat yang dikendalikan oleh pembuat malware,” jelas laporan tersebut.

Alhasil, ketersediaan chatbot semacam itu akan menyebabkan peningkatan kecanggihan malware.

BAGIKAN POSTINGAN INI

Stempel Waktu:

Lebih dari Berita Meta