ديمقراطية التزييف العميق: تكنولوجيا الذكاء الاصطناعي تُعقد أمن الانتخابات

ديمقراطية التزييف العميق: تكنولوجيا الذكاء الاصطناعي تُعقد أمن الانتخابات

ديمقراطية التزييف العميق: تكنولوجيا الذكاء الاصطناعي تُعقد أمن الانتخابات وذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

الأحداث الأخيرة، بما في ذلك التزييف العميق الناتج عن الذكاء الاصطناعي robocall ينتحل شخصية الرئيس بايدن إن حث الناخبين في نيو هامبشاير على الامتناع عن التصويت في الانتخابات التمهيدية، هو بمثابة تذكير صارخ بأن الجهات الفاعلة الخبيثة تنظر بشكل متزايد إلى منصات الذكاء الاصطناعي التوليدية الحديثة (GenAI) باعتبارها سلاحا قويا لاستهداف الانتخابات الأمريكية.

يمكن لمنصات مثل ChatGPT، أو Gemini من Google (المعروفة سابقًا باسم Bard)، أو أي عدد من نماذج اللغات الكبيرة للويب المظلم (LLMs) المصممة لهذا الغرض، أن تلعب دورًا في تعطيل العملية الديمقراطية، من خلال الهجمات التي تشمل حملات التأثير الجماهيري، والتصيد الآلي، وانتشار محتوى مزيف عميق.

في الواقع، مدير مكتب التحقيقات الفيدرالي كريستوفر راي أعربت مؤخرا عن مخاوفها حول حرب المعلومات المستمرة باستخدام التزييف العميق الذي يمكن أن يزرع معلومات مضللة خلال الحملة الرئاسية المقبلة، مثل الجهات الفاعلة المدعومة من الدولة محاولة التأثير على التوازنات الجيوسياسية.

يمكن لـ GenAI أيضًا أتمتة صعود "سلوك غير منسق منسق"الشبكات التي تحاول استقطاب الجماهير لحملاتها التضليلية من خلال منافذ الأخبار المزيفة، وملفات تعريف الوسائط الاجتماعية المقنعة، وغيرها من الطرق - بهدف زرع الفتنة وتقويض ثقة الجمهور في العملية الانتخابية.

التأثير على الانتخابات: مخاطر كبيرة وسيناريوهات كابوسية

ومن وجهة نظر بادرايك أورايلي، كبير مسؤولي الابتكار في شركة CyberSaint، فإن الخطر "كبير" لأن التكنولوجيا تتطور بسرعة كبيرة.

ويقول: "يعد بأن يكون مثيرًا للاهتمام، وربما مثيرًا للقلق بعض الشيء أيضًا، حيث نرى أنواعًا جديدة من المعلومات المضللة تستفيد من تقنية التزييف العميق".

على وجه التحديد، يقول أورايلي، إن "سيناريو الكابوس" هو أن الاستهداف الدقيق باستخدام المحتوى الناتج عن الذكاء الاصطناعي سوف ينتشر على منصات التواصل الاجتماعي. هذا تكتيك مألوف من فضيحة كامبريدج Analytica، حيث قامت الشركة بتجميع بيانات الملف الشخصي النفسي لـ 230 مليون ناخب أمريكي، من أجل تقديم رسائل مخصصة للغاية عبر فيسبوك للأفراد في محاولة للتأثير على معتقداتهم وأصواتهم. لكن شركة GenAI يمكنها أتمتة هذه العملية على نطاق واسع، وإنشاء محتوى مقنع للغاية لا يحتوي على سوى القليل من خصائص "الروبوت"، إن وجدت، التي يمكن أن تنفر الناس.

ويوضح قائلاً: "إن دمج بيانات الاستهداف المسروقة [لقطات شخصية عن هوية المستخدم واهتماماته] مع المحتوى الناتج عن الذكاء الاصطناعي يشكل خطراً حقيقياً". "إن حملات التضليل الروسية في الفترة 2013-2017 توحي بما يمكن أن يحدث وما سيحدث، ونحن نعرف عن التزييف العميق الذي أنشأه مواطنون أمريكيون [مثل تلك] التي تظهر بايدن، و إليزابيث وارن".

مزيج من وسائل التواصل الاجتماعي و تكنولوجيا التزييف العميق متاحة بسهولة ويضيف أن هذا يمكن أن يكون سلاحًا مدمرًا لاستقطاب المواطنين الأمريكيين في بلد منقسم بشدة بالفعل.

يقول أورايلي، المعروف أيضًا باسم الأشخاص الذين يؤمنون بـ "الحقائق البديلة": "تعتمد الديمقراطية على تقاليد ومعلومات مشتركة معينة، والخطر هنا هو زيادة البلقنة بين المواطنين، مما يؤدي إلى ما أسماه الباحث في جامعة ستانفورد رينيه ديريستا "الحقائق المفصلة".

من المرجح أن تكون المنصات التي تستخدمها الجهات الفاعلة في مجال التهديد لزرع الانقسام ذات فائدة قليلة: ويضيف، على سبيل المثال، أن منصة التواصل الاجتماعي X، المعروفة سابقًا باسم Twitter، قد دمرت ضمان الجودة (QA) للمحتوى.

ويحذر من أن "المنصات الأخرى قدمت تأكيدات نموذجية بأنها ستعالج المعلومات المضللة، لكن حماية حرية التعبير ونقص التنظيم لا يزالان يتركان المجال مفتوحا على مصراعيه أمام الجهات الفاعلة السيئة".

يعمل الذكاء الاصطناعي على تضخيم عمليات TTP للتصيد الاحتيالي الحالية

يتم بالفعل استخدام GenAI لصياغة حملات تصيد احتيالي مستهدفة وأكثر تصديقًا على نطاق واسع - ولكن في سياق أمن الانتخابات، تعد هذه الظاهرة أكثر إثارة للقلق، وفقًا لسكوت سمول، مدير استخبارات التهديدات السيبرانية في Tidal Cyber.

"نتوقع أن نرى الخصوم السيبرانيين يتبنون الذكاء الاصطناعي التوليدي للقيام بهجمات التصيد والهندسة الاجتماعية - الأشكال الرائدة للهجمات المتعلقة بالانتخابات من حيث الحجم الثابت على مدار سنوات عديدة - أكثر إقناعًا، مما يزيد من احتمال تفاعل الأهداف مع المحتوى الضار. " هو يوضح.

يقول سمول إن اعتماد الذكاء الاصطناعي يقلل أيضًا من حاجز الدخول لشن مثل هذه الهجمات، وهو عامل من المرجح أن يزيد من حجم الحملات هذا العام التي تحاول التسلل إلى الحملات أو الاستيلاء على حسابات المرشحين لأغراض انتحال الشخصية، من بين إمكانات أخرى.

"يقوم الخصوم الإجراميون والدول القوميون بانتظام بتكييف إغراءات التصيد الاحتيالي والهندسة الاجتماعية مع الأحداث الحالية والموضوعات الشائعة، ومن المؤكد تقريبًا أن هذه الجهات الفاعلة ستحاول الاستفادة من الطفرة في المحتوى الرقمي المرتبط بالانتخابات الذي يتم توزيعه بشكل عام هذا العام، لمحاولة تقديم برامج ضارة "المحتوى للمستخدمين المطمئنين"، كما يقول.

الدفاع ضد التهديدات الانتخابية لمنظمة العفو الدولية

وللدفاع ضد هذه التهديدات، يجب أن يكون مسؤولو الانتخابات والحملات الانتخابية على دراية بالمخاطر التي تدعمها GenAI وكيفية الدفاع ضدها.

يقول جيمس تورجال، نائب رئيس المخاطر السيبرانية في شركة Optiv: "يجري مسؤولو الانتخابات والمرشحون باستمرار مقابلات ومؤتمرات صحفية يمكن للجهات الفاعلة في مجال التهديد أن تستخلص منها لقطات صوتية من التزييف العميق القائم على الذكاء الاصطناعي". "لذلك، يتعين عليهم التأكد من أن لديهم شخصًا أو فريقًا مسؤولاً عن ضمان السيطرة على المحتوى".

ويجب عليهم أيضًا التأكد من تدريب المتطوعين والعاملين على التهديدات المدعومة بالذكاء الاصطناعي مثل الهندسة الاجتماعية المحسنة، والجهات الفاعلة التي تقف وراءها، وكيفية الرد على الأنشطة المشبوهة.

ولتحقيق هذه الغاية، يجب على الموظفين المشاركة في التدريب على الهندسة الاجتماعية وفيديو التزييف العميق الذي يتضمن معلومات حول جميع أشكال ونواقل الهجوم، بما في ذلك المحاولات الإلكترونية (البريد الإلكتروني والنصوص ووسائل التواصل الاجتماعي)، والمحاولات الشخصية والمحاولات الهاتفية.

يقول تورغال: "هذا أمر مهم للغاية - خاصة مع المتطوعين - لأنه ليس كل شخص لديه نظافة إلكترونية جيدة".

بالإضافة إلى ذلك، يجب تدريب متطوعي الحملات والانتخابات على كيفية تقديم المعلومات بأمان عبر الإنترنت وإلى الكيانات الخارجية، بما في ذلك منشورات وسائل التواصل الاجتماعي، وتوخي الحذر عند القيام بذلك.

ويحذر قائلاً: "يمكن للجهات الفاعلة في مجال التهديد السيبراني جمع هذه المعلومات لتصميم إغراءات مصممة اجتماعياً لأهداف محددة".

يقول أورايلي إن التنظيم يشمل المدى الطويل العلامة المائية للتزييف العميق للصوت والفيديو سيكون مفيدًا، مع الإشارة إلى أن الحكومة الفيدرالية تعمل مع مالكي LLMs لوضع الحماية موضع التنفيذ.

في الواقع، فإن أعلنت لجنة الاتصالات الفيدرالية (FCC) للتو المكالمات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي باعتبارها "مصطنعة" بموجب قانون حماية المستهلك الهاتفي (TCPA)، مما يجعل استخدام تكنولوجيا الاستنساخ الصوتي غير قانوني ويزود المدعين العامين في جميع أنحاء البلاد بأدوات جديدة لمكافحة مثل هذه الأنشطة الاحتيالية.

يقول أورايلي: "إن الذكاء الاصطناعي يتحرك بسرعة كبيرة لدرجة أن هناك خطرًا كامنًا يتمثل في أن أي قواعد مقترحة قد تصبح غير فعالة مع تقدم التكنولوجيا، مما قد يؤدي إلى فشل الهدف". "في بعض النواحي، هذا هو الغرب المتوحش، والذكاء الاصطناعي يأتي إلى السوق مع القليل جدًا من الضمانات."

الطابع الزمني:

اكثر من قراءة مظلمة