الحد من التحيز وتحسين السلامة في DALL · E 2 PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

الحد من التحيز وتحسين السلامة في DALL · E 2

اليوم ، نقوم بتطبيق تقنية جديدة بحيث تقوم DALL · E بإنتاج صور للأشخاص تعكس بشكل أكثر دقة تنوع سكان العالم. يتم تطبيق هذه التقنية على مستوى النظام عندما يتم إعطاء DALL · E موجهًا يصف شخصًا لا يحدد العرق أو الجنس ، مثل "رجل الإطفاء".

بناءً على تقييمنا الداخلي ، كان المستخدمون أكثر احتمالًا بمقدار 12 مرة أن يقولوا أن صور DALL · E تضمنت أشخاصًا من خلفيات متنوعة بعد تطبيق التقنية. نخطط لتحسين هذه التقنية بمرور الوقت حيث نجمع المزيد من البيانات والتعليقات.


صورة الرئيس التنفيذي

توليد

في أبريل ، بدأنا في معاينة بحث DALL · E 2 على عدد محدود من الأشخاص ، مما سمح لنا بفهم قدرات النظام وحدوده بشكل أفضل وتحسين أنظمة السلامة لدينا.

خلال مرحلة المعاينة هذه ، قام المستخدمون الأوائل بوضع علامة على الصور الحساسة والمتحيزة والتي ساعدت في الإبلاغ عن هذا التخفيف الجديد وتقييمه.

نحن مستمرون في البحث عن الكيفية التي يمكن أن تعكس بها أنظمة الذكاء الاصطناعي ، مثل DALL · E ، التحيزات في بيانات التدريب الخاصة بها والطرق المختلفة التي يمكننا من خلالها معالجتها.

أثناء معاينة البحث ، اتخذنا خطوات أخرى لتحسين أنظمة السلامة لدينا ، بما في ذلك:

  • التقليل من مخاطر إساءة استخدام DALL · E لإنشاء محتوى مخادع من خلال رفض تحميل الصور التي تحتوي على وجوه واقعية ومحاولات خلق صورة لشخصيات عامة ، بما في ذلك المشاهير والشخصيات السياسية البارزة.
  • جعل مرشحات المحتوى الخاصة بنا أكثر دقة بحيث تكون أكثر فاعلية في منع المطالبات وتحميلات الصور التي تنتهك ملفات سياسة المحتوى مع السماح بالتعبير الإبداعي.
  • تكرير أنظمة المراقبة الآلية والبشرية للحماية من سوء الاستخدام.

ساعدتنا هذه التحسينات على اكتساب الثقة في القدرة على دعوة المزيد من المستخدمين لتجربة DALL · E.

توسيع الوصول هو جزء مهم من خدماتنا نشر أنظمة الذكاء الاصطناعي بشكل مسؤول لأنه يتيح لنا معرفة المزيد عن الاستخدام الفعلي والاستمرار في تكرار أنظمة السلامة الخاصة بنا.

الطابع الزمني:

اكثر من OpenAI