التزام OpenAI بسلامة الأطفال: اعتماد السلامة من خلال مبادئ التصميم

التزام OpenAI بسلامة الأطفال: اعتماد السلامة من خلال مبادئ التصميم

OpenAI’s commitment to child safety: adopting safety by design principles PlatoBlockchain Data Intelligence. Vertical Search. Ai.

تلتزم OpenAI، جنبًا إلى جنب مع قادة الصناعة بما في ذلك Amazon وAnthropic وCivitai وGoogle وMeta وMetaphysic وMicrosoft وMistral AI وStable AI، بتنفيذ تدابير قوية لسلامة الأطفال في تطوير ونشر وصيانة تقنيات الذكاء الاصطناعي التوليدية كما هو موضح في السلامة حسب مبادئ التصميم. هذه المبادرة بقيادة شوكة، وهي منظمة غير ربحية مكرسة للدفاع عن الأطفال من الاعتداء الجنسي، و كل التكنولوجيا بشرية، وهي منظمة مخصصة لمعالجة مشاكل التكنولوجيا والمجتمع المعقدة، تهدف إلى التخفيف من المخاطر التي يشكلها الذكاء الاصطناعي التوليدي على الأطفال. من خلال اعتماد مبادئ السلامة الشاملة حسب التصميم، تضمن OpenAI ونظراؤها إعطاء الأولوية لسلامة الأطفال في كل مرحلة من مراحل تطوير الذكاء الاصطناعي. حتى الآن، بذلنا جهدًا كبيرًا لتقليل احتمال قيام نماذجنا بإنشاء محتوى يضر بالأطفال، ووضع قيود عمرية لـ ChatGPT، والمشاركة بنشاط مع المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، وتحالف التكنولوجيا، وجهات حكومية أخرى. وأصحاب المصلحة في الصناعة بشأن قضايا حماية الطفل وتعزيز آليات الإبلاغ. 

كجزء من جهود السلامة حسب التصميم، نلتزم بما يلي:

  1. طور: تطوير وبناء وتدريب نماذج الذكاء الاصطناعي التوليدية
    التي تعالج بشكل استباقي المخاطر التي تهدد سلامة الأطفال.

    • مصدر مجموعات البيانات التدريبية الخاصة بنا بشكل مسؤول، واكتشاف وإزالة النشاط الجنسي للأطفال
      مواد الإساءة (CSAM) ومواد الاستغلال الجنسي للأطفال (CSEM) من
      بيانات التدريب، والإبلاغ عن أي مواد CSAM مؤكدة إلى الجهة ذات الصلة
      السلطات.
    • دمج حلقات ردود الفعل واستراتيجيات اختبار الإجهاد التكراري في
      عملية التنمية لدينا.
    • نشر الحلول لمعالجة سوء الاستخدام الخصومي.
  2. نشر: قم بإصدار وتوزيع نماذج الذكاء الاصطناعي التوليدية بعد ذلك
    لقد تم تدريبهم وتقييمهم من أجل سلامة الأطفال، وتوفير الحماية لهم
    طوال العملية.

    • مكافحة المحتوى والسلوك المسيء والرد عليه، ودمجهما
      جهود الوقاية.
    • تشجيع ملكية المطورين للسلامة حسب التصميم.
  3. المحافظة: الحفاظ على سلامة النموذج والمنصة من خلال الاستمرار
    لفهم المخاطر التي تهدد سلامة الأطفال والاستجابة لها بشكل فعال.

    • ملتزمون بإزالة AIG-CSAM الجديد الناتج عن الجهات الفاعلة السيئة من موقعنا
    • الاستثمار في الأبحاث والحلول التكنولوجية المستقبلية.
    • حارب CSAM وAIG-CSAM وCSEM على منصاتنا.

يمثل هذا الالتزام خطوة مهمة في منع إساءة استخدام تقنيات الذكاء الاصطناعي لإنشاء أو نشر مواد الاعتداء الجنسي على الأطفال (AIG-CSAM) وغيرها من أشكال الأذى الجنسي ضد الأطفال. وكجزء من مجموعة العمل، اتفقنا أيضًا على إصدار تحديثات التقدم كل عام.

الطابع الزمني:

اكثر من OpenAI