قامت Anthropic ببناء روبوت محادثة ديمقراطي يعمل بالذكاء الاصطناعي من خلال السماح للمستخدمين بالتصويت لصالح قيمه

قامت Anthropic ببناء روبوت محادثة ديمقراطي يعمل بالذكاء الاصطناعي من خلال السماح للمستخدمين بالتصويت لصالح قيمه

في ما قد يكون الدراسة الأولى من نوعها، قامت شركة الذكاء الاصطناعي Anthropic بتطوير نموذج لغة كبير (LLM) تم ضبطه بدقة من أجل أحكام القيمة من قبل مجتمع المستخدمين.

لقد تم تطوير العديد من برامج LLM التي تواجه الجمهور باستخدام حواجز حماية - تعليمات مشفرة تملي سلوكًا محددًا - في محاولة للحد من المخرجات غير المرغوب فيها. على سبيل المثال، يقدم كلود من Anthropic وChatGPT من OpenAI للمستخدمين استجابة آمنة جاهزة لطلبات المخرجات المتعلقة بالموضوعات العنيفة أو المثيرة للجدل.

ومع ذلك، وكما أشار عدد لا يحصى من النقاد، فإن حواجز الحماية وغيرها من تقنيات التدخل يمكن أن تعمل على حرمان المستخدمين من وكالتهم. ما يعتبر مقبولاً ليس مفيداً دائماً، وما يعتبر مفيداً ليس مقبولاً دائماً. ويمكن أن تختلف تعريفات الأخلاق أو الأحكام القائمة على القيمة بين الثقافات والشعوب والفترات الزمنية.

هذا الموضوع ذو علاقة بـ: المملكة المتحدة تستهدف التهديدات المحتملة للذكاء الاصطناعي في قمة نوفمبر المخطط لها

أحد الحلول الممكنة لذلك هو السماح للمستخدمين بإملاء محاذاة القيمة لنماذج الذكاء الاصطناعي. وتُعَد تجربة "الذكاء الاصطناعي الدستوري الجماعي" التي أجرتها منظمة أنثروبك بمثابة طعنة في وجه هذا "التحدي الفوضوي".

قامت Anthropic، بالتعاون مع Polis وCollective Intelligence Project، باستطلاع آراء 1,000 مستخدم من مختلف الفئات السكانية وطلبت منهم الإجابة على سلسلة من الأسئلة عبر الاقتراع.

قامت Anthropic ببناء روبوت دردشة ديمقراطي يعمل بالذكاء الاصطناعي من خلال السماح للمستخدمين بالتصويت لصالح قيمها PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.
مصدر، أنثروبي

ويتمحور التحدي حول السماح للمستخدمين بتحديد ما هو مناسب دون تعريضهم لمخرجات غير مناسبة. يتضمن ذلك التماس قيم المستخدم ثم تنفيذ تلك الأفكار في نموذج تم تدريبه بالفعل.

تستخدم الأنثروبيك طريقة تسمى "الذكاء الاصطناعي الدستوري". مباشرة جهودها في ضبط LLMs للسلامة والفائدة. يتضمن ذلك بشكل أساسي إعطاء النموذج قائمة من القواعد التي يجب عليه الالتزام بها ثم تدريبه على تنفيذ تلك القواعد طوال العملية، تمامًا مثلما يعمل الدستور كوثيقة أساسية للحكم في العديد من الدول.

في تجربة الذكاء الاصطناعي الدستوري الجماعي، حاولت أنثروبيك دمج التعليقات المستندة إلى المجموعة في دستور النموذج. النتائج، بالنسبة الى إلى منشور مدونة من Anthropic، يبدو أنه حقق نجاحًا علميًا لأنه سلط الضوء على المزيد من التحديات نحو تحقيق هدف السماح لمستخدمي منتج LLM بتحديد قيمهم الجماعية.

إحدى الصعوبات التي كان على الفريق التغلب عليها هي التوصل إلى طريقة جديدة لعملية القياس. نظرًا لأن هذه التجربة تبدو الأولى من نوعها، وتعتمد على منهجية الذكاء الاصطناعي الدستورية الخاصة بشركة Anthropic، فلا يوجد اختبار ثابت لمقارنة النماذج الأساسية بتلك التي تم ضبطها مع القيم الجماعية.

في النهاية، يبدو كما لو أن النموذج الذي نفذ البيانات الناتجة عن ردود فعل استطلاعات المستخدمين تفوق على النموذج الأساسي "قليلاً" في مجال المخرجات المتحيزة.

لكل منشور بالمدونة:

"أكثر من النموذج الناتج، نحن متحمسون لهذه العملية. نعتقد أن هذه قد تكون واحدة من الحالات الأولى التي يقوم فيها أفراد من الجمهور، كمجموعة، بتوجيه سلوك نموذج لغوي كبير عن عمد. ونأمل أن تعتمد المجتمعات في جميع أنحاء العالم على تقنيات مثل هذه لتدريب نماذج ثقافية وسياقية محددة تخدم احتياجاتها.

الطابع الزمني:

اكثر من Cointelegraph