يقول فريق منظمة العفو الدولية الأخلاقي إن مكافآت التحيز يمكن أن تكشف بشكل أسرع عيوب الخوارزمية ذكاء بيانات بلاتوبلوكتشين. البحث العمودي. عاي.

يقول فريق الذكاء الاصطناعي الأخلاقي إن مكافآت التحيز يمكن أن تكشف بسرعة أكبر عيوب الخوارزمية

يثبت التحيز في أنظمة الذكاء الاصطناعي أنه حجر عثرة رئيسي في الجهود المبذولة لدمج التكنولوجيا على نطاق أوسع في مجتمعنا. مبادرة جديدة من شأنها أن تكافئ الباحثين على العثور على أي تحيزات في أنظمة الذكاء الاصطناعي يمكن أن تساعد في حل المشكلة.

تم تصميم هذا الجهد على غرار مكافآت الأخطاء التي تدفعها شركات البرمجيات لخبراء الأمن السيبراني الذين ينبهونهمأي ثغرات أمنية محتملة في منتجاتهم. الفكرة ليست جديدة. كانت "مكافآت التحيز" اقترح لأول مرة بواسطة Aأنا باحث ورائد الأعمال JB Rubinovitz في عام 2018 ، وقد واجهت العديد من المنظمات بالفعل مثل هذه التحديات.

لكن الجهد الجديد يسعى إلى إنشاء منتدى مستمر لمسابقات المكافآت المتحيزة يكون مستقلاً عن أي منظمة معينة. تتكون من متطوعين من مجموعة من الشركات بما في ذلك Twitter ، ما يسمى بخطة "Bias Buccaneers" لعقد مسابقات منتظمة ، أو "تمردات" ، وأطلقت في وقت سابق من هذا الشهر أول تحد من هذا القبيل.

"مكافآت الأخطاء هي ممارسة معيارية في مجال الأمن السيبراني لم تجد موطئ قدم لها بعد في مجتمع التحيز الخوارزمي ، "المؤسسةنيزرز يقول على موقعه على الانترنت. "بينما أظهرت الأحداث الأولية لمرة واحدة الحماس للمكافآت ، فإن Bias Buccaneers هي أول منظمة غير ربحية تهدف إلى إنشاء تمردات مستمرة والتعاون مع شركات التكنولوجيا وتمهيد الطريق لإجراء تقييمات شفافة وقابلة للتكرار لأنظمة الذكاء الاصطناعي."

تهدف هذه المسابقة الأولى إلى معالجة التحيز في خوارزميات الكشف عن الصور ، ولكن بدلاً من حث الأشخاص على استهداف أنظمة معينة للذكاء الاصطناعي ، المنافسة سوف الفصلحث الباحثين على بناء أدوات يمكنها اكتشاف مجموعات البيانات المتحيزة. تكمن الفكرة في إنشاء نموذج للتعلم الآلي يمكنه تصنيف كل صورة بدقة في مجموعة بيانات مع لون بشرتها والجنس المدرك والفئة العمرية. تنتهي المسابقة في 30 نوفمبر ولديه الجائزة الأولى 6,000 دولار ، والجائزة الثانية 4,000 دولار ، والجائزة الثالثة 2,000 دولار.

يعتمد التحدي على حقيقة أن مصدر تحيز الخوارزمية في كثير من الأحيان ليس الخوارزمية نفسها ، ولكن طبيعة البيانات التي يتم التدريب عليها. أدوات آلية يمكنها تقييم مدى توازن مجموعة ما بسرعة of الصور مرتبطة بالسمات التي غالبًا ما تكون مصادر للتمييز يمكن أن تساعد باحثي الذكاء الاصطناعي على تجنب مصادر البيانات المتحيزة بوضوح.

لكن المنظمين يقولون إن هذه ليست سوى الخطوة الأولى في محاولة لبناء مجموعة أدوات لتقييم التحيز في مجموعات البيانات والخوارزميات والتطبيقات ، وفي النهاية إنشاء معايير لكيفية تعطيلمع التحيز الخوارزمي والإنصاف وقابلية التفسير.

انها ليس هذا الجهد الوحيد. أحد قادة الجديد . هو رومان تشودري من تويتر ، الذي ساعد في تنظيم مسابقة مكافأة التحيز الأولى للذكاء الاصطناعي العام الماضي ، مستهدفًا خوارزمية النظام الأساسي المستخدم لاقتصاص الصور اشتكى المستخدمون فضلوا الوجوه البيضاء والذكور على الوجوه السوداء والإناث.

منحت المنافسة المتسللين الوصول إلى نموذج الشركة وتحدتهم للعثور على عيوب فيه. الداخلين وجدت مجموعة واسعة من المشاكل، بما في ذلكتفضيل الوجوه الجميلة بشكل نمطي ، النفور من الأشخاص ذوو الشعر الأبيض (علامة العمر) ، و تفضيل الميمات بالحروف الإنجليزية بدلاً من العربية.

اختتمت جامعة ستانفورد مؤخرًا مسابقة تحدت الفرق للتوصل إلى أدوات مصممة لمساعدة الأشخاص على تدقيق أنظمة الذكاء الاصطناعي المنتشرة تجاريًا أو مفتوحة المصدر من أجل التمييز. ويمكن لقوانين الاتحاد الأوروبي الحالية والمقبلة أن تجعل من الإلزامي للشركات تدقيق بياناتها وخوارزمياتها بانتظام.

لكن أخذ مكافآت أخطاء الذكاء الاصطناعي والتدقيق الحسابي سيكون الكلام السائد وجعلها فعالة أسهل من الفعل. حتمًا ، ستقاوم الشركات التي تبني أعمالها على خوارزمياتها أي جهود لتشويه سمعتها.

البناء على الدروس المستفادة من أنظمة التدقيق في مجالات أخرى ، مثل اللوائح المالية والبيئية والصحية ، الباحثون تم تحديده مؤخرًا بعض المكونات الحاسمة للمساءلة الفعالة. واحد من أهم المعايير حددوا أنها مشاركة هادفة لأطراف ثالثة مستقلة.

وأشار الباحثون إلى أن عمليات تدقيق الذكاء الاصطناعي الطوعية الحالية غالبًا ما تنطوي على تضارب في المصالح ، مثل قيام المنظمة المستهدفة بدفع تكاليف التدقيق ، أو المساعدة في تأطير نطاق التدقيق ، أو إتاحة الفرصة لمراجعة النتائج قبل الإعلان عنها. انعكس هذا القلق في تقرير حديث من رابطة العدالة الخوارزمية، whiلاحظ الفصل الحجم الضخمd دور المنظمات المستهدفة في برامج مكافآت الأمن السيبراني الحالية.

سيكون العثور على طريقة لتمويل ودعم مدققي الذكاء الاصطناعي المستقلين حقًا وصائدي الأخطاء تحديًا كبيرًا ، لا سيما أنهم سيواجهون بعضًا من أكثر الشركات التي تتمتع بموارد جيدة في العالم. لحسن الحظ ، يبدو أن هناك إحساسًا متزايدًا داخل الصناعة بأن معالجة هذه المشكلة سيكون أمرًا بالغ الأهمية للحفاظ على ثقة المستخدمين في خدماتهم.

الصورة الائتمان: جاكوب روزين / Unsplash

الطابع الزمني:

اكثر من التفرد المحور