يعتزم الاتحاد الأوروبي اعتماد أول تشريع في العالم للذكاء الاصطناعي يحظر التعرف على الوجه في الأماكن العامة

يعتزم الاتحاد الأوروبي اعتماد أول تشريع في العالم للذكاء الاصطناعي يحظر التعرف على الوجه في الأماكن العامة

من المقرر أن يتبنى الاتحاد الأوروبي أول تشريع في العالم للذكاء الاصطناعي والذي سيحظر التعرف على الوجه في الأماكن العامة PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

يقود الاتحاد الأوروبي السباق لتنظيم الذكاء الاصطناعي. وفي نهاية ثلاثة أيام من المفاوضات، توصل المجلس الأوروبي والبرلمان الأوروبي إلى اتفاق مؤقت في وقت سابق اليوم ما سيصبح أول تنظيم شامل للذكاء الاصطناعي في العالم.

ووصفت كارمي أرتيجاس، وزيرة الدولة الإسبانية للرقمنة والذكاء الاصطناعي، الاتفاقية بأنها "إنجاز تاريخي" في خبر صحفى. وقال أرتيجاس إن القواعد حققت "توازنًا دقيقًا للغاية" بين تشجيع ابتكار الذكاء الاصطناعي الآمن والجدير بالثقة وتبنيه في جميع أنحاء الاتحاد الأوروبي وحماية "الحقوق الأساسية" للمواطنين.

مشروع القانون – قانون الذكاء الاصطناعي- تم اقتراحه لأول مرة من قبل المفوضية الأوروبية في أبريل 2021. وسيصوت البرلمان والدول الأعضاء في الاتحاد الأوروبي للموافقة على مشروع القانون العام المقبل، لكن القواعد لن تدخل حيز التنفيذ حتى عام 2025.

نهج قائم على المخاطر لتنظيم الذكاء الاصطناعي

تم تصميم قانون الذكاء الاصطناعي باستخدام نهج قائم على المخاطر، حيث كلما زادت المخاطر التي يشكلها نظام الذكاء الاصطناعي، زادت صرامة القواعد. ولتحقيق ذلك، ستقوم اللائحة بتصنيف أنظمة الذكاء الاصطناعي لتحديد تلك التي تشكل "خطورة عالية".

وستخضع أنظمة الذكاء الاصطناعي التي تعتبر غير تهديدية ومنخفضة المخاطر إلى "التزامات شفافية خفيفة للغاية". على سبيل المثال، سيُطلب من أنظمة الذكاء الاصطناعي هذه الكشف عن أن محتواها تم إنشاؤه بواسطة الذكاء الاصطناعي لتمكين المستخدمين من اتخاذ قرارات مستنيرة.

بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، سيضيف التشريع عددًا من الالتزامات والمتطلبات، بما في ذلك:

الرقابة البشرية: وينص القانون على اتباع نهج يركز على الإنسان، مع التركيز على آليات الرقابة البشرية الواضحة والفعالة لأنظمة الذكاء الاصطناعي عالية المخاطر. وهذا يعني وجود البشر في الحلقة، ومراقبة ومراقبة تشغيل نظام الذكاء الاصطناعي بشكل فعال. ويتضمن دورهم ضمان عمل النظام على النحو المنشود، وتحديد ومعالجة الأضرار المحتملة أو العواقب غير المقصودة، وفي نهاية المطاف تحمل المسؤولية عن قراراته وإجراءاته.

الشفافية وقابلية الشرح: يعد إزالة الغموض عن آليات العمل الداخلية لأنظمة الذكاء الاصطناعي عالية المخاطر أمرًا بالغ الأهمية لبناء الثقة وضمان المساءلة. يجب على المطورين توفير معلومات واضحة ويمكن الوصول إليها حول كيفية اتخاذ أنظمتهم للقرارات. يتضمن ذلك تفاصيل حول الخوارزميات الأساسية وبيانات التدريب والتحيزات المحتملة التي قد تؤثر على مخرجات النظام.

مراقبة البيانات: يؤكد قانون الذكاء الاصطناعي على ممارسات البيانات المسؤولة، بهدف منع التمييز والتحيز وانتهاكات الخصوصية. يجب على المطورين التأكد من أن البيانات المستخدمة لتدريب وتشغيل أنظمة الذكاء الاصطناعي عالية المخاطر دقيقة وكاملة وتمثيلية. تعد مبادئ تقليل البيانات أمرًا بالغ الأهمية، حيث يتم جمع المعلومات الضرورية فقط لوظيفة النظام وتقليل مخاطر سوء الاستخدام أو الانتهاكات. علاوة على ذلك، يجب أن يتمتع الأفراد بحقوق واضحة للوصول إلى بياناتهم المستخدمة في أنظمة الذكاء الاصطناعي وتصحيحها ومحوها، وتمكينهم من التحكم في معلوماتهم وضمان استخدامها الأخلاقي.

إدارة المخاطر: سيصبح تحديد المخاطر بشكل استباقي والتخفيف من حدتها مطلبًا رئيسيًا لأنظمة الذكاء الاصطناعي عالية المخاطر. يجب على المطورين تنفيذ أطر قوية لإدارة المخاطر التي تقوم بشكل منهجي بتقييم الأضرار المحتملة ونقاط الضعف والعواقب غير المقصودة لأنظمتهم.

الطابع الزمني:

اكثر من CryptoSlate