AI Meningkatkan $2,600,000,000 'Penipuan Penipu' dengan Mengkloning Suara Anak-anak dan Menelepon dalam Keadaan Darurat Palsu: Laporan - The Daily Hodl

AI Turbocharging $2,600,000,000 'Imposter Scams' dengan Mengkloning Suara Anak-Anak dan Menelepon Dengan Keadaan Darurat Palsu: Laporan – The Daily Hodl

Kecerdasan buatan sekarang mendorong skema kriminal global bernilai miliaran dolar yang dikenal sebagai "penipuan palsu".

Versi awal dari skema ini terjadi ketika scammer menelepon atau mengirim pesan teks ke orang yang tidak menaruh curiga berpura-pura menjadi seseorang yang mereka kenal yang memiliki nomor telepon baru dan keadaan darurat keuangan.

Tapi sekarang, dengan bantuan AI, penipu mengkloning suara sebenarnya dari teman, anggota keluarga, dan bahkan anak-anak, menurut kecerdasan buatan keamanan siber McAfee yang baru melaporkan.

Dengan menggunakan rekaman suara seseorang selama tiga detik, McAfee mengatakan bahwa AI dapat secara akurat mereplikasi suara siapa pun dan mulai melakukan panggilan ke korban yang tidak menaruh curiga.

McAfee mengutip kasus seorang ibu Arizona yang mengatakan The New York Post yang scammers mengkloning suara putri remajanya menggunakan AI, menuntut uang tebusan $ 1 juta untuk pembebasannya.

McAfee merekomendasikan orang untuk menetapkan kata kode dengan anak-anak, anggota keluarga, atau teman dekat tepercaya yang hanya mereka ketahui, dan membuat rencana untuk selalu menanyakannya jika mereka menelepon, mengirim SMS, atau mengirim email untuk meminta bantuan.

Angka terbaru dari Komisi Perdagangan Federal Menunjukkan penipuan penipu menyumbang kerugian $ 2.6 miliar tahun lalu.

Dan Komisi juga memiliki diuraikan serangkaian tindakannya sendiri yang dapat diambil orang jika mereka yakin ada scammer yang mempertaruhkan.

  • Tahan tekanan untuk segera mengirim uang. Tutup Telepon.
  • Kemudian telepon atau kirim pesan ke anggota keluarga atau teman yang (seharusnya) menghubungi Anda.
  • Hubungi mereka di nomor telepon yang Anda tahu benar, bukan nomor yang baru saja digunakan seseorang untuk menghubungi Anda. Periksa apakah mereka benar-benar dalam masalah.
  • Panggil orang lain di keluarga atau lingkaran teman Anda, meskipun penelepon mengatakan untuk merahasiakannya. Lakukan itu terutama jika Anda tidak dapat menghubungi teman atau anggota keluarga yang seharusnya dalam kesulitan. Orang tepercaya dapat membantu Anda mengetahui apakah cerita itu benar.

Menurut McAffee, 25% orang dewasa yang disurvei secara global memiliki pengalaman penipuan suara AI.

Satu dari 10 mengatakan bahwa mereka telah menjadi sasaran secara pribadi, dan 15% mengatakan seseorang yang mereka kenal telah menjadi sasaran.

Jangan Lewatkan Sedikit pun - Berlangganan untuk mendapatkan peringatan email yang dikirim langsung ke kotak masuk Anda

Memeriksa Harga Aksi

Ikuti kami di Twitter, Facebook dan Telegram

Berselancar Campuran Hodl Harian

Periksa Headline Berita Terbaru
  AI Turbo Mengisi $2,600,000,000 'Penipuan Penipu' dengan Mengkloning Suara Anak-anak dan Menelepon Dalam Keadaan Darurat Palsu: Laporan - The Daily Hodl PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Penafian: Pendapat yang dikemukakan di The Daily Hodl bukan nasihat investasi. Investor harus melakukan uji tuntas sebelum melakukan investasi berisiko tinggi dalam Bitcoin, cryptocurrency, atau aset digital. Harap diperhatikan bahwa transfer dan perdagangan Anda adalah risiko Anda sendiri, dan setiap kerugian yang mungkin Anda tanggung adalah tanggung jawab Anda. Daily Hodl tidak merekomendasikan pembelian atau penjualan cryptocurrency atau aset digital apa pun, juga The Daily Hodl bukan penasihat investasi. Harap dicatat bahwa The Daily Hodl berpartisipasi dalam pemasaran afiliasi.

Gambar yang Dihasilkan: Midjourney

Stempel Waktu:

Lebih dari The Daily Hodl