المفوضية الأوروبية تستهدف المعلومات المضللة التي ينتجها الذكاء الاصطناعي قبل الانتخابات

المفوضية الأوروبية تستهدف المعلومات المضللة التي ينتجها الذكاء الاصطناعي قبل الانتخابات

المفوضية الأوروبية تستهدف المعلومات المضللة الصادرة عن الذكاء الاصطناعي قبل الانتخابات البحث العمودي. منظمة العفو الدولية.

تكلف المفوضية الأوروبية منصات التكنولوجيا الكبرى باكتشاف المحتوى الناتج عن الذكاء الاصطناعي لحماية الانتخابات الأوروبية من المعلومات المضللة، مما يسلط الضوء على نهج قوي نحو الحفاظ على النزاهة الديمقراطية.

في خطوة استباقية لحماية نزاهة الانتخابات الأوروبية المقبلة، كلفت المفوضية الأوروبية عمالقة التكنولوجيا مثل TikTok وX (تويتر سابقًا) وفيسبوك بتكثيف جهودهم في اكتشاف المحتوى الناتج عن الذكاء الاصطناعي. تعد هذه المبادرة جزءًا من استراتيجية أوسع لمكافحة المعلومات المضللة وحماية العمليات الديمقراطية من التهديدات المحتملة التي يشكلها الذكاء الاصطناعي التوليدي والتزييف العميق.

تدابير التخفيف والمشاورات العامة

وقد وضعت المفوضية مسودة المبادئ التوجيهية لأمن الانتخابات بموجب قانون الخدمات الرقمية (DSA)، والتي تؤكد على أهمية وضع علامات واضحة ومستمرة على المحتوى الناتج عن الذكاء الاصطناعي والذي يمكن أن يشبه إلى حد كبير أو يحرف تمثيل الأشخاص الحقيقيين أو الأشياء أو الأماكن أو الكيانات أو الأحداث. تؤكد هذه المبادئ التوجيهية أيضًا على ضرورة قيام المنصات بتزويد المستخدمين بالأدوات اللازمة لتصنيف المحتوى الناتج عن الذكاء الاصطناعي، وتعزيز الشفافية والمساءلة عبر المساحات الرقمية.

وتجري حاليا فترة مشاورات عامة، مما يسمح لأصحاب المصلحة بالمساهمة في تعليقاتهم على مسودة المبادئ التوجيهية هذه حتى 7 مارس/آذار. وينصب التركيز على تنفيذ تدابير تخفيف "معقولة ومتناسبة وفعالة" لمنع إنشاء ونشر المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي. تتضمن التوصيات الرئيسية وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لتسهيل التعرف عليه وضمان قيام المنصات بتكييف أنظمة الإشراف على المحتوى الخاصة بها لاكتشاف هذا المحتوى وإدارته بكفاءة​​​​.

التركيز على الشفافية وتمكين المستخدم

تدعو المبادئ التوجيهية المقترحة إلى الشفافية، وتحث المنصات على الكشف عن مصادر المعلومات المستخدمة في إنشاء محتوى الذكاء الاصطناعي. ويهدف هذا النهج إلى تمكين المستخدمين من التمييز بين المحتوى الأصلي والمضلل. علاوة على ذلك، يتم تشجيع عمالقة التكنولوجيا على دمج الضمانات لمنع توليد محتوى كاذب يمكن أن يؤثر على سلوك المستخدم، لا سيما في السياق الانتخابي.

الإطار التشريعي للاتحاد الأوروبي واستجابة الصناعة

هذه المبادئ التوجيهية مستوحاة من قانون الذكاء الاصطناعي الذي وافق عليه الاتحاد الأوروبي مؤخرًا وميثاق الذكاء الاصطناعي غير الملزم، مما يسلط الضوء على التزام الاتحاد الأوروبي بتنظيم استخدام أدوات الذكاء الاصطناعي التوليدية، بما في ذلك تلك مثل ChatGPT من OpenAI. استجابت شركة Meta، الشركة الأم لفيسبوك وإنستغرام، بالإعلان عن نيتها تصنيف المنشورات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، بما يتماشى مع دفع الاتحاد الأوروبي لمزيد من الشفافية وحماية المستخدم ضد الأخبار المزيفة.

دور قانون الخدمات الرقمية

تلعب DSA دورًا حاسمًا في هذه المبادرة، حيث تنطبق على مجموعة واسعة من الشركات الرقمية وتفرض التزامات إضافية على منصات الإنترنت الكبيرة جدًا (VLOPs) للتخفيف من المخاطر النظامية في مجالات مثل العمليات الديمقراطية. تهدف أحكام DSA إلى ضمان أن المعلومات المقدمة باستخدام الذكاء الاصطناعي التوليدي تعتمد على مصادر موثوقة، لا سيما في السياق الانتخابي، وأن المنصات تتخذ تدابير استباقية للحد من آثار "الهلوسة" الناتجة عن الذكاء الاصطناعي.

وفي الختام

وبينما تستعد المفوضية الأوروبية لانتخابات يونيو، تشير هذه المبادئ التوجيهية إلى خطوة مهمة نحو ضمان بقاء النظام البيئي عبر الإنترنت مساحة للمشاركة الديمقراطية العادلة والمستنيرة. من خلال معالجة التحديات التي يفرضها المحتوى الناتج عن الذكاء الاصطناعي، يهدف الاتحاد الأوروبي إلى تحصين عملياته الانتخابية ضد المعلومات المضللة، والحفاظ على نزاهة وأمن مؤسساته الديمقراطية.

مصدر الصورة: Shutterstock

الطابع الزمني:

اكثر من بلوكشين الأخبار