Demokrasi Deepfake: Teknologi AI Memperumit Keamanan Pemilu

Demokrasi Deepfake: Teknologi AI Memperumit Keamanan Pemilu

Demokrasi Deepfake: Teknologi AI Memperumit Keamanan Pemilu Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Peristiwa terkini, termasuk deepfake yang dihasilkan oleh kecerdasan buatan (AI). robocall meniru Presiden Biden mendesak para pemilih di New Hampshire untuk tidak ikut serta dalam pemilihan pendahuluan, merupakan pengingat bahwa pelaku kejahatan semakin memandang platform AI generatif modern (GenAI) sebagai senjata ampuh untuk menargetkan pemilu AS.

Platform seperti ChatGPT, Google Gemini (sebelumnya Bard), atau sejumlah model bahasa besar (LLM) Web Gelap yang dibuat khusus dapat berperan dalam mengganggu proses demokrasi, dengan serangan yang mencakup kampanye pengaruh massal, trolling otomatis, dan proliferasi konten palsu.

Faktanya, Direktur FBI Christopher Wray baru-baru ini menyuarakan keprihatinan tentang perang informasi yang sedang berlangsung dengan menggunakan deepfake yang dapat menyebarkan disinformasi selama kampanye presiden mendatang, seperti aktor yang didukung negara upaya untuk mempengaruhi keseimbangan geopolitik.

GenAI juga dapat mengotomatiskan kebangkitan โ€œperilaku tidak autentik yang terkoordinasiโ€ jaringan yang berupaya mengembangkan khalayak untuk kampanye disinformasi mereka melalui saluran berita palsu, profil media sosial yang meyakinkan, dan cara-cara lain โ€“ dengan tujuan menyebarkan perselisihan dan merusak kepercayaan publik terhadap proses pemilu.

Pengaruh Pemilu: Risiko Besar & Skenario Mimpi Buruk

Dari sudut pandang Padraic O'Reilly, chief Innovation Officer CyberSaint, risikonya โ€œbesarโ€ karena teknologi berkembang begitu cepat.

โ€œIni menjanjikan hal yang menarik dan mungkin juga sedikit mengkhawatirkan, karena kita melihat varian baru disinformasi yang memanfaatkan teknologi deepfake,โ€ katanya.

Secara khusus, O'Reilly mengatakan, โ€œskenario mimpi buruknyaโ€ adalah penargetan mikro dengan konten yang dihasilkan AI akan menjamur di platform media sosial. Itu adalah taktik yang familiar dari Skandal Cambridge Analytica, di mana perusahaan tersebut mengumpulkan data profil psikologis 230 juta pemilih AS, untuk menyajikan pesan yang sangat disesuaikan melalui Facebook kepada individu dalam upaya untuk memengaruhi keyakinan โ€” dan suara mereka. Namun GenAI dapat mengotomatiskan proses tersebut dalam skala besar, dan membuat konten yang sangat meyakinkan yang hanya memiliki sedikit, jika ada, karakteristik โ€œbotโ€ yang dapat membuat orang tidak tertarik.

โ€œData penargetan yang dicuri [snapshot kepribadian tentang siapa pengguna dan minat mereka] yang digabungkan dengan konten yang dihasilkan AI adalah risiko nyata,โ€ jelasnya. โ€œKampanye disinformasi yang dilakukan Rusia pada tahun 2013-2017 menunjukkan apa yang bisa dan akan terjadi, dan kita mengetahui adanya deepfake yang dilakukan oleh warga AS [seperti yang] menampilkan Biden, dan Elizabeth Warren. "

Campuran media sosial dan teknologi deepfake yang tersedia bisa menjadi senjata kiamat bagi polarisasi warga AS di negara yang sudah terpecah belah, tambahnya.

โ€œDemokrasi didasarkan pada tradisi dan informasi tertentu yang dimiliki bersama, dan bahayanya adalah meningkatnya balkanisasi di antara warga negara, yang mengarah pada apa yang oleh peneliti Stanford, Renรฉe DiResta, disebut sebagai 'realitas yang dipesan lebih dahulu',โ€ kata O'Reilly, alias masyarakat yang percaya pada โ€œfakta alternatif.โ€

Platform yang digunakan pelaku ancaman untuk menyebarkan perpecahan kemungkinan besar tidak akan banyak membantu: Ia menambahkan bahwa, misalnya, platform media sosial X, yang sebelumnya dikenal sebagai Twitter, telah menghilangkan jaminan kualitas (QA) pada konten.

โ€œPlatform lain telah memberikan jaminan bahwa mereka akan mengatasi disinformasi, namun perlindungan kebebasan berpendapat dan kurangnya peraturan masih membuka peluang bagi pelaku kejahatan,โ€ dia memperingatkan.

AI Memperkuat TTP Phishing yang Ada

GenAI sudah digunakan untuk merancang kampanye phishing yang lebih dapat dipercaya dan ditargetkan dalam skala besar โ€“ namun dalam konteks keamanan pemilu, fenomena tersebut bahkan lebih memprihatinkan, menurut Scott Small, direktur intelijen ancaman siber di Tidal Cyber.

โ€œKami memperkirakan musuh dunia maya akan mengadopsi AI generatif untuk membuat serangan phishing dan rekayasa sosial โ€“ bentuk utama serangan terkait pemilu dalam hal volume yang konsisten selama bertahun-tahun โ€“ menjadi lebih meyakinkan, sehingga semakin besar kemungkinan target akan berinteraksi dengan konten berbahaya. " dia menjelaskan.

Small mengatakan adopsi AI juga menurunkan hambatan masuk untuk meluncurkan serangan semacam itu, sebuah faktor yang kemungkinan akan meningkatkan volume kampanye tahun ini yang mencoba menyusup ke kampanye atau mengambil alih akun kandidat untuk tujuan peniruan identitas, dan potensi lainnya.

โ€œPenjahat dan negara secara teratur mengadaptasi umpan phishing dan rekayasa sosial ke dalam peristiwa terkini dan tema-tema populer, dan pelaku-pelaku ini hampir pasti akan mencoba memanfaatkan lonjakan konten digital terkait pemilu yang didistribusikan secara umum tahun ini, untuk mencoba menyebarkan konten jahat konten untuk pengguna yang tidak menaruh curiga,โ€ katanya.

Membela Terhadap Ancaman Pemilu AI

Untuk mempertahankan diri dari ancaman-ancaman ini, para pejabat pemilu dan tim kampanye harus menyadari risiko-risiko yang disebabkan oleh GenAI dan bagaimana cara mempertahankan diri dari risiko-risiko tersebut.

โ€œPetugas pemilu dan kandidat terus-menerus melakukan wawancara dan konferensi pers yang dapat dimanfaatkan oleh pelaku ancaman untuk melakukan deepfake berbasis AI,โ€ kata James Turgal, wakil presiden risiko siber di Optiv. โ€œOleh karena itu, merupakan kewajiban mereka untuk memastikan bahwa mereka memiliki seseorang atau tim yang bertanggung jawab untuk memastikan kontrol atas konten.โ€

Mereka juga harus memastikan para relawan dan pekerja dilatih mengenai ancaman yang didukung AI, seperti rekayasa sosial yang ditingkatkan, pelaku ancaman di balik ancaman tersebut, dan cara merespons aktivitas mencurigakan.

Untuk mencapai tujuan tersebut, staf harus berpartisipasi dalam pelatihan rekayasa sosial dan video deepfake yang mencakup informasi tentang segala bentuk dan vektor serangan, termasuk upaya elektronik (email, teks, dan media sosial), upaya tatap muka, dan melalui telepon.

โ€œHal ini sangat penting โ€“ terutama bagi para sukarelawan โ€“ karena tidak semua orang memiliki kebersihan dunia maya yang baik,โ€ kata Turgal.

Selain itu, relawan kampanye dan pemilu harus dilatih tentang cara memberikan informasi secara online dan kepada pihak luar dengan aman, termasuk postingan media sosial, dan berhati-hati saat melakukannya.

โ€œPara pelaku ancaman dunia maya dapat mengumpulkan informasi ini untuk merancang umpan yang direkayasa secara sosial untuk menargetkan target tertentu,โ€ ia memperingatkan.

O'Reilly mengatakan jangka panjang, regulasi itu mencakup tanda air untuk deepfake audio dan video akan sangat berperan, mengingat pemerintah Federal sedang bekerja sama dengan pemilik LLM untuk menerapkan perlindungan.

Bahkan, Komisi Komunikasi Federal (FCC) baru saja mendeklarasikannya Panggilan suara yang dihasilkan AI dianggap โ€œbuatanโ€ berdasarkan Undang-Undang Perlindungan Konsumen Telepon (TCPA), menjadikan penggunaan teknologi kloning suara ilegal dan memberikan alat baru kepada jaksa agung negara bagian secara nasional untuk memerangi aktivitas penipuan tersebut.

โ€œAI bergerak sangat cepat sehingga ada bahaya bahwa peraturan apa pun yang diusulkan akan menjadi tidak efektif seiring kemajuan teknologi, dan berpotensi meleset dari sasaran,โ€ kata O'Reilly. โ€œDalam beberapa hal, ini adalah Wild West, dan AI mulai memasuki pasar dengan sedikit perlindungan.โ€

Stempel Waktu:

Lebih dari Bacaan gelap