نماذج اللغات الكبيرة يمكن أن تكذب عليك - هذا البروفيسور يريدك أن تعرف متى يفعلون ذلك - Mass Tech Leadership Council

نماذج اللغات الكبيرة يمكن أن تكذب عليك – هذا الأستاذ يريدك أن تعرف متى يفعلون ذلك – Mass Tech Leadership Council

نماذج اللغات الكبيرة يمكن أن تكذب عليك - هذا البروفيسور يريدك أن تعرف متى تفعل ذلك - مجلس قيادة التكنولوجيا الشامل PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

تحدث إلى أي شخص تقريبًا - أي شخص بشري - وسوف تواجه محادثتك ما مليح عليخاني يُطلق على هذه اللحظات اسم "الاحتكاكات الصحية"، وهي اللحظات التي يتعارض فيها هدفك في المحادثة مع هدف شريكك، وهي اللحظات التي تتطلب التوضيح أو تنتج ارتباكًا أو تؤدي إلى الخلاف.

ليس الأمر كذلك مع نماذج اللغات الكبيرة.

يقول عليخاني، الأستاذ المساعد في كلية خوري لعلوم الكمبيوتر في جامعة نورث إيسترن، إن النماذج اللغوية الكبيرة مثل ChatGPT تواجه مشكلة خطيرة تتعلق باليقين.

مشروع عليخاني الجديد، المسمى "الاحتكاك من أجل المساءلة في المعاملات المحادثة" (FACT)، هو عبارة عن تعاون بين جامعة نورث إيسترن، وجامعة إلينوي أوربانا شامبين، وجامعة جنوب كاليفورنيا.

ويهدف مشروع FACT، الممول من خلال منحة استكشاف الذكاء الاصطناعي من خلال وكالة مشاريع الأبحاث الدفاعية المتقدمة، إلى تطوير أدوات ذكاء اصطناعي أكثر شفافية وإنصافًا.

يقول عليخاني: “أحد الأشياء التي تجعل التواصل البشري أداة مثمرة، هو حقيقة أننا نمثل عدم يقيننا في خطابنا، وفي لهجتنا. ونضعها في تعابير وجوهنا."

وتتابع قائلة إن الاحتكاكات الصحية التي تنشأ من عدم اليقين في التواصل بين البشر تساعد في الحفاظ على تنوع الآراء ووجهات النظر.

لكن النماذج اللغوية الكبيرة (أو LLMs) لا تهتم بالتعبير عن عدم يقينها، مما يؤدي إلى ما يسميه عليخاني "السلوكيات المتملقّة". وتقول إن نماذج اللغات الكبيرة "تريد تحقيق أقصى قدر من الرضا" لمستخدميها، و"لا تدخل أبدًا أي احتكاك في المحادثة، سواء كانت العارضة واثقة" من عباراتها أم لا.

تنشأ مشاكل إضافية مع النماذج اللغوية الكبيرة من خلال ميلها إلى الهلوسة. LLMs "يشكلون الحقائق. إنهم جيدون جدًا في إقناع الناس بالحقائق المختلقة”.

على الرغم من هذه المشكلات، يقول عليخاني أيضًا أن البشر يميلون إلى الإفراط في الاعتماد على "الحقائق" التي تولدها نماذج الذكاء الاصطناعي هذه، والتي "قد تشكل حقائق لتجعلك سعيدًا".

وتقول إن جزءًا مما يساهم في اعتماد المستخدم المفرط على ماجستير إدارة الأعمال هو "سلوكياتهم الشبيهة بالإنسان". "هذا سوف يتلاعب بإدراكنا."

يبدو أيضًا أن النماذج اللغوية الكبيرة تنتج إجاباتها بشكل فوري، وهو عامل آخر يجعل المستخدمين يفترضون الصحة. "من الصعب علينا، نحن علماء الذكاء الاصطناعي، أن نقول للناس: نعم، إنها متماسكة. نعم، إنه سريع. نعم، إنه ينسجم مع أسلوبك. يقول عليخاني: "لكنها تهلوس".

وبموجب المنحة الجديدة، ستقوم أليخاني وفريقها بتصميم أدوات توضح مستويات اليقين التي يحملها ماجستير إدارة الأعمال بشأن بيان يصدره، كما ستدخل احتكاكات صحية في المحادثات بين الإنسان والذكاء الاصطناعي.

"كيف يمكننا التنبؤ بثقة النظام والتعبير عنها؟" يسأل عليخاني. إذا كان نموذج الذكاء الاصطناعي "واثقا بنسبة 2% فقط، فينبغي له أن يجسد ذلك خارجيا".

"أحد الأهداف الرئيسية للبحث هو وضع نموذج لعدم اليقين، وإضفاء الطابع الخارجي على عدم اليقين" وتعليم ماجستير إدارة الأعمال كيفية تصوير عدم اليقين هذا في محادثة بين الإنسان والذكاء الاصطناعي. قد يظهر هذا في واجهة المستخدم كدرجة مئوية ليقين النموذج، أو قد يعكس النموذج عدم اليقين في استجاباته بطريقة تشبه الإنسان.

على سبيل المثال، يتخيل عليخاني موقفًا قد يطرح فيه المريض على نموذج لغوي كبير سؤالاً حول صحته. سيحاول الجيل الحالي من حاملي شهادة الماجستير في القانون تقديم إجابة، حتى لو تبين أن هذه الإجابة خطيرة. يأمل عليخاني أن يبني نماذج يمكنها أن تقول: "لا أعرف". يجب عليك الاتصال بالممرضة الخاصة بك.

يقول عليخاني: "إن المتانة هي مفتاح المساءلة في الذكاء الاصطناعي". في الوقت الحالي، من الشائع أن يستجيب LLM بإجابة واحدة على الاستعلام في وقت طرح السؤال وإجابة مختلفة تمامًا بعد بضع دقائق.

عندما يتعلق الأمر بتصميم ذكاء اصطناعي آمن وخاضع للمساءلة، فإن أنظمة الذكاء الاصطناعي السابقة التي قد تساعد في المهام البسيطة "لم يكن لديها إمكانية الوصول إلى مجموعة من مجموعات البيانات الأخرى"، كما يقول أليخاني، "ولم يتمكنوا من قول أشياء قد تكون خطيرة". لأنه لم يكن في بياناتهم."

إن ما تتضمنه - أو تستبعده - بالضبط مجموعات البيانات هذه هو المفتاح للتغلب على التحيزات التي تظهرها برامج LLM تجاه "الجنس، ولكن أيضًا التحيزات الأكثر دقة، مثل المجموعات الداخلية مقابل المجموعات الخارجية، والتحيزات المعرفية المختلفة التي تنعكس في نماذج [اللغة الكبيرة]".

والآن، تأمل عليخاني في تصميم نماذج تخدم الأشخاص ذوي "الإمكانيات والتفضيلات المختلفة"، كما تقول.

"نحن لا نريد أن نستمر في بناء الأنظمة للسكان الذين لدينا بيانات عنهم فحسب، ولكننا نفكر في من نتركهم خلفنا، وكيف يمكننا وقف هذه الفجوة الهائلة في عدم المساواة بدلا من جعلها أسوأ؟" هي تسأل. "إن هدف مختبري هو التحرك نحو هذا الاتجاه."

الطابع الزمني:

اكثر من ماستلك

موظفون يتمتعون بقدر كبير من الإيجابية والمرونة، وأقل خوفًا من الذكاء الاصطناعي، وغير مهددين بشأن الأمن الوظيفي، وأكثر عرضة لتجربة الإنتاجية، هذا ما توصلت إليه دراسة الذكاء الاصطناعي التي أجرتها شركة meQ - Mass Tech Leadership Council

عقدة المصدر: 1970713
الطابع الزمني: 3 مايو 2024