دفع حوكمة الذكاء الاصطناعي إلى الأمام

دفع حوكمة الذكاء الاصطناعي إلى الأمام

المضي قدمًا بحوكمة الذكاء الاصطناعي إلى الأمام في ذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

5) تطوير ونشر الآليات التي تمكن المستخدمين من فهم ما إذا كان المحتوى الصوتي أو المرئي تم إنشاؤه بواسطة الذكاء الاصطناعي، بما في ذلك المصدر القوي أو العلامة المائية أو كليهما، للمحتوى الصوتي أو المرئي الذي تم إنشاؤه باستخدام الذكاء الاصطناعي

تدرك الشركات التي تتعهد بهذا الالتزام أنه من المهم للأشخاص أن يكونوا قادرين على فهم متى يتم إنشاء المحتوى الصوتي أو المرئي من خلال الذكاء الاصطناعي. لتعزيز هذا الهدف ، وافقوا على تطوير آليات قوية ، بما في ذلك أنظمة المصدر و / أو العلامات المائية للمحتوى الصوتي أو المرئي الذي تم إنشاؤه بواسطة أي من أنظمتهم المتاحة للجمهور ضمن النطاق الذي تم تقديمه بعد تطوير نظام العلامة المائية. سيقومون أيضًا بتطوير أدوات أو واجهات برمجة التطبيقات لتحديد ما إذا كان قد تم إنشاء جزء معين من المحتوى باستخدام نظامهم. المحتوى السمعي البصري الذي يمكن تمييزه بسهولة عن الواقع أو المصمم بحيث يسهل التعرف عليه على أنه تم إنشاؤه بواسطة نظام الذكاء الاصطناعي للشركة - مثل الأصوات الافتراضية لمساعدي الذكاء الاصطناعي - خارج نطاق هذا الالتزام. يجب أن تتضمن بيانات العلامة المائية أو المصدر معرّفًا للخدمة أو النموذج الذي أنشأ المحتوى ، ولكنها لا تحتاج إلى تضمين أي معلومات تعريفية للمستخدم. بشكل عام ، تتعهد الشركات التي تلتزم بهذا الالتزام بالعمل مع أقرانها في الصناعة وهيئات وضع المعايير حسب الاقتضاء نحو تطوير إطار عمل تقني لمساعدة المستخدمين على تمييز المحتوى الصوتي أو المرئي الذي يولده المستخدمون عن المحتوى الصوتي أو المرئي الناتج عن الذكاء الاصطناعي.

6) الإبلاغ علنًا عن قدرات النموذج أو النظام، والقيود، ومجالات الاستخدام المناسب وغير المناسب، بما في ذلك مناقشة المخاطر المجتمعية، مثل التأثيرات على العدالة والتحيز 

تقر الشركات التي تقدم هذا الالتزام بأنه يجب على المستخدمين فهم القدرات والقيود المعروفة لأنظمة الذكاء الاصطناعي التي يستخدمونها أو يتفاعلون معها. يلتزمون بنشر تقارير لجميع الإصدارات العامة النموذجية الجديدة المهمة ضمن النطاق. يجب أن تتضمن هذه التقارير تقييمات السلامة التي تم إجراؤها (بما في ذلك في مجالات مثل القدرات الخطرة ، إلى الحد الذي تكون فيه مسؤولة عن الكشف عنها علنًا) ، والقيود الكبيرة في الأداء التي لها آثار على مجالات الاستخدام المناسب ، ومناقشة آثار النموذج على المجتمع المخاطر مثل العدالة والتحيز، ونتائج الاختبارات التنافسية التي تم إجراؤها لتقييم مدى ملاءمة النموذج للنشر. 

7) إعطاء الأولوية للبحث حول المخاطر المجتمعية التي تشكلها أنظمة الذكاء الاصطناعي، بما في ذلك تجنب التحيز والتمييز الضار، وحماية الخصوصية

تدرك الشركات التي تلتزم بهذا الالتزام أهمية تجنب نشر التحيزات الضارة والتمييز الذي تمارسه أنظمة الذكاء الاصطناعي. تلتزم الشركات بشكل عام بتمكين فرق الثقة والسلامة، وتطوير أبحاث سلامة الذكاء الاصطناعي، وتعزيز الخصوصية، وحماية الأطفال، والعمل على إدارة مخاطر الذكاء الاصطناعي بشكل استباقي حتى يمكن تحقيق فوائده. 

8) تطوير ونشر أنظمة الذكاء الاصطناعي الرائدة للمساعدة في مواجهة أكبر التحديات التي يواجهها المجتمع

توافق الشركات التي تلتزم بهذا الالتزام على دعم البحث والتطوير لأنظمة الذكاء الاصطناعي الحدودية التي يمكن أن تساعد في مواجهة أكبر تحديات المجتمع ، مثل التخفيف من تغير المناخ والتكيف معه ، والكشف المبكر عن السرطان والوقاية منه ، ومكافحة التهديدات السيبرانية. تلتزم الشركات أيضًا بدعم المبادرات التي تعزز تعليم وتدريب الطلاب والعاملين لتحقيق الازدهار من فوائد الذكاء الاصطناعي ، ومساعدة المواطنين على فهم طبيعة التكنولوجيا وقدراتها وقيودها وتأثيرها.

الطابع الزمني:

اكثر من OpenAI