Deepfake Demokrasi: Yapay Zeka Teknolojisi Seçim Güvenliğini Zorlaştırıyor

Deepfake Demokrasi: Yapay Zeka Teknolojisi Seçim Güvenliğini Zorlaştırıyor

Deepfake Demokrasi: Yapay Zeka Teknolojisi Seçim Güvenliğini Karmaşıklaştırıyor PlatoBlockchain Veri Zekası. Dikey Arama. Ai.

Yapay zeka (AI) tarafından oluşturulan deepfake dahil son olaylar Başkan Biden'ın kimliğine bürünen otomatik çağrı New Hampshire seçmenlerini ön seçimden kaçınmaya çağıran bu çağrı, kötü niyetli aktörlerin modern üretken yapay zeka (GenAI) platformlarını giderek ABD seçimlerini hedef almak için güçlü bir silah olarak gördüklerini açıkça hatırlatıyor.

ChatGPT, Google'ın Gemini (eski adıyla Bard) veya herhangi bir sayıda amaca yönelik olarak oluşturulmuş Dark Web büyük dil modelleri (LLM'ler) gibi platformlar, kitlesel etki kampanyalarını, otomatik trolling'i ve web sitelerinin çoğalmasını kapsayan saldırılarla demokratik süreci bozmada rol oynayabilir. derin sahte içerik.

Aslında FBI Direktörü Christopher Wray yakın zamanda dile getirilen endişeler yaklaşan başkanlık kampanyası sırasında dezenformasyon ekebilecek deepfake'ler kullanılarak devam eden bilgi savaşı hakkında devlet destekli aktörler Jeopolitik dengeler sarsılmaya çalışılıyor.

GenAI ayrıca "koordineli özgün olmayan davranışSahte haber kaynakları, ikna edici sosyal medya profilleri ve diğer yollar aracılığıyla dezenformasyon kampanyaları için hedef kitleler oluşturmaya çalışan ağlar; anlaşmazlık tohumları ekerek halkın seçim sürecine olan güvenini sarsmak amacıyla.

Seçim Etkisi: Önemli Riskler ve Kabus Senaryoları

CyberSaint'in baş inovasyon sorumlusu Padraic O'Reilly'nin bakış açısına göre risk “önemli” çünkü teknoloji çok hızlı gelişiyor.

"Deepfake teknolojisinden yararlanan yeni dezenformasyon çeşitlerini gördüğümüz için bu ilginç ve belki de biraz endişe verici olacağa benziyor" diyor.

O'Reilly, özellikle "kabus senaryosunun", yapay zeka tarafından oluşturulan içerikle mikro hedeflemenin sosyal medya platformlarında çoğalacağı yönünde olduğunu söylüyor. Bu tanıdık bir taktik Cambridge Analytica skandalıŞirketin, inançlarını ve oylarını etkilemek amacıyla kişilere Facebook aracılığıyla son derece özel mesajlar sunmak için 230 milyon ABD'li seçmenin psikolojik profil verilerini topladığı yer. Ancak GenAI, bu süreci geniş ölçekte otomatikleştirebilir ve insanları rahatsız edebilecek "bot" özelliklerine çok az sahip olan, son derece ikna edici içerikler oluşturabilir.

"Çalınan hedefleme verilerinin (kullanıcının kim olduğuna ve ilgi alanlarına ilişkin kişisel anlık görüntülerin) yapay zeka tarafından oluşturulan içerikle birleştirilmesi gerçek bir risktir" diye açıklıyor. "Rusya'nın 2013-2017'deki dezenformasyon kampanyaları başka nelerin olabileceğine ve olacağına dair fikir veriyor ve ABD vatandaşları tarafından Biden'ın yer aldığı deepfake'lerin oluşturulduğunu biliyoruz ve Elizabeth Warren".

Sosyal medyanın karışımı ve hazır deepfake teknolojisi Kendisi, bunun zaten derinden bölünmüş bir ülkede ABD vatandaşlarının kutuplaşması için bir kıyamet silahı olabileceğini de ekliyor.

O'Reilly, yani "alternatif gerçeklere" inanan insanlar, "Demokrasi belirli ortak geleneklere ve bilgilere dayanmaktadır ve buradaki tehlike, Stanford araştırmacısı Renée DiResta'nın 'ısmarlama gerçeklikler' olarak adlandırdığı şeye yol açan vatandaşlar arasında artan balkanlaşmadır" diyor.

Tehdit aktörlerinin ayrılık tohumları ekmek için kullandıkları platformların pek bir faydası olmayacak: Örneğin, eskiden Twitter olarak bilinen sosyal medya platformu X'in içerikle ilgili kalite güvencesini (QA) ortadan kaldırdığını ekliyor.

"Diğer platformlar dezenformasyonla mücadele edeceklerine dair standart güvenceler verdi, ancak ifade özgürlüğünün korunması ve düzenleme eksikliği, alanı hala kötü aktörlere tamamen açık bırakıyor" diye uyarıyor.

Yapay Zeka Mevcut Kimlik Avı TTP'lerini Güçlendiriyor

GenAI halihazırda daha inandırıcı, hedefe yönelik kimlik avı kampanyalarını geniş ölçekte oluşturmak için kullanılıyor; ancak Tidal Cyber'ın siber tehdit istihbaratı direktörü Scott Small'a göre, seçim güvenliği bağlamında bu fenomen daha da endişe verici.

"Siber saldırganların, uzun yıllar boyunca tutarlı hacim açısından seçimle ilgili saldırıların önde gelen biçimleri olan kimlik avı ve sosyal mühendislik saldırılarını daha ikna edici hale getirmek ve hedeflerin kötü amaçlı içerikle etkileşime girme olasılığını artırmak için üretken yapay zekayı benimsediğini görmeyi bekliyoruz. " açıklıyor.

Small, yapay zekanın benimsenmesinin, bu tür saldırıların başlatılmasına yönelik giriş engelini de azalttığını söylüyor; bu, diğer potansiyellerin yanı sıra, kampanyalara sızmaya veya kimliğe bürünme amacıyla aday hesapları ele geçirmeye çalışan kampanyaların hacmini bu yıl muhtemelen artıracak bir faktör.

"Suç ve ulus-devlet saldırganları, kimlik avı ve sosyal mühendislik tuzaklarını düzenli olarak güncel olaylara ve popüler temalara uyarlıyorlar ve bu aktörler, neredeyse kesinlikle, bu yıl genel olarak dağıtılan seçimle ilgili dijital içerik patlamasından, kötü niyetli yazılımlar sunmaya çalışacaklar." içeriği şüphelenmeyen kullanıcılara sunuyor” diyor.

Yapay Zeka Seçim Tehditlerine Karşı Savunma

Bu tehditlere karşı savunma yapmak için seçim yetkilileri ve kampanyaları GenAI destekli risklerin ve bunlara karşı nasıl savunma yapılacağının farkında olmalıdır.

Optiv'in siber riskten sorumlu başkan yardımcısı James Turgal, "Seçim yetkilileri ve adaylar, tehdit aktörlerinin yapay zeka tabanlı derin sahtekarlıklar için önemli bilgiler alabileceği sürekli röportajlar ve basın toplantıları düzenliyor" diyor. "Bu nedenle içerik üzerinde kontrol sağlamaktan sorumlu bir kişinin veya ekibin bulunduğundan emin olmak onların sorumluluğundadır."

Ayrıca gönüllülerin ve çalışanların gelişmiş sosyal mühendislik gibi yapay zeka destekli tehditler, bunların arkasındaki tehdit aktörleri ve şüpheli faaliyetlere nasıl yanıt verileceği konusunda eğitildiğinden emin olmalıdırlar.

Bu amaçla personel, elektronik (e-posta, metin ve sosyal medya platformları), yüz yüze ve telefon tabanlı girişimler de dahil olmak üzere tüm formlar ve saldırı vektörleri hakkında bilgi içeren sosyal mühendislik ve deepfake video eğitimlerine katılmalıdır.

Turgal, "Bu çok önemli - özellikle de gönüllüler söz konusu olduğunda - çünkü herkes iyi bir siber hijyene sahip değil" diyor.

Ek olarak, kampanya ve seçim gönüllüleri, sosyal medya gönderileri de dahil olmak üzere çevrimiçi olarak ve dışarıdaki kuruluşlara güvenli bir şekilde bilgi sağlama ve bunu yaparken dikkatli olma konusunda eğitilmelidir.

"Siber tehdit aktörleri, sosyal mühendislikle tasarlanmış yemleri belirli hedeflere göre uyarlamak için bu bilgileri toplayabilir" diye uyarıyor.

O'Reilly uzun vadeli düzenlemelerin şunları içerdiğini söylüyor: ses ve video deepfake'leri için filigranlama Federal hükümetin korumaları devreye sokmak için Yüksek Lisans sahipleriyle birlikte çalıştığını belirterek, bunun faydalı olacağını belirtti.

Aslında, Federal İletişim Komisyonu (FCC) az önce açıkladı Yapay zeka tarafından üretilen sesli çağrılar, Telefon Tüketicisini Koruma Yasası (TCPA) kapsamında "yapay" olarak nitelendirilmekte, ses klonlama teknolojisinin kullanımı yasa dışı hale getirilmekte ve ülke çapındaki eyalet başsavcılarına bu tür dolandırıcılık faaliyetleriyle mücadele etmek için yeni araçlar sağlanmaktadır.

O'Reilly, "Yapay zeka o kadar hızlı hareket ediyor ki, teknoloji ilerledikçe önerilen kuralların etkisiz hale gelmesi ve potansiyel olarak hedefi kaçırması tehlikesi var" diyor. "Bazı açılardan burası Vahşi Batı ve yapay zeka pazara çok az korumayla geliyor."

Zaman Damgası:

Den fazla karanlık okuma