ماذا يعني مواءمة الذكاء الاصطناعي مع القيم الإنسانية؟ ذكاء البيانات في PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

ماذا يعني محاذاة الذكاء الاصطناعي مع القيم الإنسانية؟

المُقدّمة

منذ عدة سنوات ، تعلمت البرمجة على آلة Symbolics Lisp القديمة. يحتوي نظام التشغيل على أمر مدمج به تهجئة "DWIM" ، وهي اختصار لعبارة "Do What I mean". إذا كتبت أمرًا وحصلت على خطأ ، يمكنني كتابة "DWIM" ، وسيحاول الجهاز معرفة ما قصدت فعله. في جزء مدهش من الوقت ، نجح الأمر بالفعل.

كان أمر DWIM نموذجًا مصغرًا لمشكلة أكثر حداثة تتمثل في "محاذاة الذكاء الاصطناعي": نحن البشر نميل إلى إعطاء الآلات تعليمات غامضة أو خاطئة ، ونريدها أن تفعل ما نعنيه ، وليس بالضرورة ما نقوله.

كثيرًا ما تسيء أجهزة الكمبيوتر فهم ما نريدها أن تفعله ، بنتائج غير متوقعة ومسلية في كثير من الأحيان. أحد الباحثين في تعلم الآلة ، على سبيل المثال ، أثناء التحقيق في النتائج الجيدة المشبوهة لبرنامج تصنيف الصور ، اكتشف أنه لم يكن يعتمد على التصنيفات على الصورة نفسها ، ولكن على المدة التي استغرقها الوصول إلى ملف الصورة - تم تخزين الصور من فئات مختلفة في قواعد بيانات ذات أوقات وصول مختلفة قليلاً. اخر مبرمج مغامر أراد أن تتوقف مكنسة Roomba الكهربائية الخاصة به عن الاصطدام بالأثاث ، لذلك قام بتوصيل جهاز Roomba بشبكة عصبية تكافئ السرعة ولكنها عاقب Roomba عندما اصطدم المصد الأمامي بشيء ما. استوعبت الآلة هذه الأهداف من خلال القيادة دائمًا للخلف.

لكن مجتمع باحثي محاذاة الذكاء الاصطناعي يرى جانبًا أكثر قتامة لهذه الحكايات. في الواقع ، يعتقدون أن عدم قدرة الآلات على تمييز ما نريده حقًا هو مخاطرة وجودية. ويعتقدون أنه لحل هذه المشكلة ، يجب علينا إيجاد طرق لمواءمة أنظمة الذكاء الاصطناعي مع التفضيلات والأهداف والقيم البشرية.

اكتسب هذا الرأي مكانة بارزة مع الكتاب الأفضل مبيعًا لعام 2014 الخارق بواسطة الفيلسوف نيك بوستروم ، الذي جادل جزئيًا بأن الذكاء المتزايد لأجهزة الكمبيوتر يمكن أن يشكل تهديدًا مباشرًا لمستقبل البشرية. لم يحدد بوستروم الذكاء بدقة ، لكنه ، مثل معظم الآخرين في مجتمع محاذاة الذكاء الاصطناعي ، اعتمد تعريفًا لاحقًا مفصلية بواسطة باحث الذكاء الاصطناعي ستيوارت راسل على النحو التالي: "يُعتبر الكيان ذكيًا ، بالمعنى التقريبي ، إذا اختار الإجراءات التي يُتوقع أن تحقق أهدافه ، في ضوء ما أدركه."

بنى بوستروم وجهة نظره حول مخاطر الذكاء الاصطناعي على أطروحتين. الأول هو أطروحة التعامد ، التي تنص ، على حد تعبير بوستروم ، على أن "الذكاء والأهداف النهائية هي محاور متعامدة يمكن للعوامل المحتملة أن تتنوع على أساسها بحرية. بعبارة أخرى ، يمكن دمج أي مستوى من الذكاء بشكل أو بآخر مع أي هدف نهائي تقريبًا ". والثاني هو أطروحة التقارب الأداتي ، والتي تعني أن الفاعل الذكي سيتصرف بطرق تعزز بقائه الذاتي ، وتحسين نفسه واكتساب الموارد ، طالما أن هذه تجعل العامل أكثر احتمالا لتحقيق هدفه النهائي. ثم وضع افتراضًا أخيرًا: سيبتكر الباحثون قريبًا ذكاءً خارقًا للذكاء الاصطناعي - واحدًا "يتجاوز إلى حد كبير الأداء المعرفي للبشر في جميع مجالات الاهتمام تقريبًا".

بالنسبة لبوستروم وآخرين في مجتمع محاذاة الذكاء الاصطناعي ، فإن هذا الاحتمال ينذر بالموت للبشرية ما لم ننجح في مواءمة أنظمة الذكاء الاصطناعي فائقة الذكاء مع رغباتنا وقيمنا. يوضح بوستروم هذا الخطر بتجربة فكرية مشهورة الآن: تخيل إعطاء ذكاء اصطناعي فائق الذكاء هدفًا لزيادة إنتاج مقاطع الورق. وفقًا لأطروحات بوستروم ، في السعي لتحقيق هذا الهدف ، سيستخدم نظام الذكاء الاصطناعي تألقه وإبداعه الخارقين لزيادة قوته وسيطرته ، وفي النهاية الحصول على جميع موارد العالم لتصنيع المزيد من المقاطع الورقية. سوف تموت البشرية ، ولكن سيتم بالفعل زيادة إنتاج المشابك الورقية.

إذا كنت تعتقد أن الذكاء يتم تعريفه من خلال القدرة على تحقيق الأهداف ، وأن أي هدف يمكن "إدخاله" من قبل البشر في عامل الذكاء الاصطناعي الخارق ، وأن مثل هذا الوكيل سوف يستخدم ذكاءه الفائق لفعل أي شيء لتحقيق هذا الهدف ، فعندئذٍ ستفعل تصل إلى نفس الشيء اختتام كما فعل راسل: "كل ما هو مطلوب لضمان وقوع كارثة هو آلة عالية الكفاءة مقترنة بالبشر الذين لديهم قدرة غير كاملة على تحديد التفضيلات البشرية بشكل كامل وصحيح."

إنها مجاز مألوف في الخيال العلمي - تتعرض البشرية للتهديد من قبل آلات خارجة عن السيطرة أساءت تفسير الرغبات البشرية. الآن ، هناك شريحة غير جوهرية من مجتمع أبحاث الذكاء الاصطناعي تشعر بقلق عميق حيال هذا النوع من السيناريوهات التي تحدث في الحياة الواقعية. لقد أنفقت العشرات من المعاهد بالفعل مئات الملايين من الدولارات على المشكلة ، والجهود البحثية حول المواءمة جارية في الجامعات حول العالم وفي شركات الذكاء الاصطناعي الكبرى مثل Google و Meta و OpenAI.

ماذا عن المخاطر الأكثر إلحاحًا التي يشكلها الذكاء الاصطناعي غير الخارق ، مثل فقدان الوظيفة والتحيز وانتهاكات الخصوصية وانتشار المعلومات المضللة؟ اتضح أن هناك القليل من التداخل بين المجتمعات المعنية في المقام الأول بمثل هذه المخاطر قصيرة الأجل وأولئك الذين يقلقون أكثر بشأن مخاطر المحاذاة على المدى الطويل. في الواقع ، هناك نوع من الحرب الثقافية للذكاء الاصطناعي ، حيث يشعر جانب واحد بالقلق بشأن هذه المخاطر الحالية أكثر مما يعتبره مستقبلًا تقنيًا غير واقعي ، والجانب الآخر يعتبر المشاكل الحالية أقل إلحاحًا من المخاطر الكارثية المحتملة التي يشكلها الذكاء الاصطناعي الفائق.

بالنسبة للكثيرين خارج هذه المجتمعات المحددة ، يبدو محاذاة الذكاء الاصطناعي شيئًا مثل الدين - دين له قادة محترمون وعقيدة لا جدال فيها وتلاميذ مخلصون يقاتلون عدوًا قويًا محتمل (ذكاء اصطناعي فائق غير متحيز). في الواقع ، عالم الكمبيوتر والمدون سكوت آرونسون مؤخرًا وأشار أن هناك الآن فروع "أرثوذكسية" و "إصلاحية" لعقيدة محاذاة منظمة العفو الدولية. يكتب أن الأول قلق بشكل كامل تقريبًا بشأن "الذكاء الاصطناعي المنحرف الذي يخدع البشر بينما يعمل على تدميرهم". في المقابل ، كتب: "نحن نصلح المجازفين في مجال الذكاء الاصطناعي ، ونفهم هذا الاحتمال ، لكننا نشعر بالقلق على الأقل بشأن أنظمة الذكاء الاصطناعي القوية التي يستخدمها البشر السيئون ، والتي نتوقع أن تشكل مخاطر وجودية في وقت مبكر جدًا."

يشارك العديد من الباحثين بنشاط في المشاريع القائمة على المحاذاة ، والتي تتراوح من محاولات لنقل المبادئ من الفلسفة الأخلاقية للآلات تدريب نماذج لغوية كبيرة على الأحكام الأخلاقية التعهيد الجماعي. لم تكن أي من هذه الجهود مفيدة بشكل خاص في جعل الآلات تفكر في مواقف العالم الحقيقي. لاحظ العديد من الكتاب العقبات العديدة التي تمنع الآلات من تعلم التفضيلات والقيم البشرية: غالبًا ما يكون الناس غير عقلانيين ويتصرفون بطرق تتعارض مع قيمهم ، ويمكن أن تتغير القيم على مدى حياة الأفراد والأجيال. بعد كل شيء ، ليس من الواضح أي القيم يجب أن نحاول تعلمها.

يعتقد الكثير في مجتمع المحاذاة أن المسار الواعد للمضي قدمًا هو تقنية التعلم الآلي المعروفة باسم التعلم التعزيزي العكسي (IRL). مع IRL ، لا يتم إعطاء الجهاز هدفًا لتحقيق أقصى قدر ؛ يعتقد مؤيدو المواءمة أن مثل هذه الأهداف "المدرجة" يمكن أن تؤدي عن غير قصد إلى سيناريوهات تعظيم مشبك الورق. بدلاً من ذلك ، تتمثل مهمة الآلة في مراقبة سلوك البشر واستنتاج تفضيلاتهم وأهدافهم وقيمهم. في السنوات الأخيرة ، استخدم الباحثون IRL ل آلات القطار للعب ألعاب الفيديو من خلال مراقبة البشر وتعليم الروبوتات كيف نفعل backflips من خلال إعطائهم ردود فعل متزايدة من البشر (شاهد الناس مقاطع قصيرة لمحاولات مختلفة للروبوت واختاروا تلك التي تبدو أفضل).

من غير الواضح ما إذا كانت الأساليب المماثلة يمكن أن تعلم الآلات أفكارًا أكثر دقة وتجريدًا للقيم الإنسانية. الكاتب بريان كريستيان ، مؤلف كتاب أ كتاب علمي شائع حول محاذاة الذكاء الاصطناعي، متفائل: "ليس من المبالغة أن نتخيل استبدال المفهوم الغامض لـ" backflip "بمفهوم أكثر غموضًا ولا يوصف ، مثل" المساعدة ". أو "اللطف". أو "حسن" السلوك ".

ومع ذلك ، أعتقد أن هذا يقلل من أهمية التحدي. المفاهيم الأخلاقية مثل اللطف والسلوك الجيد أكثر تعقيدًا وتعتمد على السياق من أي شيء أتقنته IRL حتى الآن. ضع في اعتبارك مفهوم "الصدق" - وهي قيمة نريدها بالتأكيد في أنظمة الذكاء الاصطناعي لدينا. في الواقع ، تتمثل المشكلة الرئيسية في النماذج اللغوية الكبيرة اليوم في عدم قدرتها على التمييز بين الحقيقة والباطل. في الوقت نفسه ، قد نرغب في بعض الأحيان في أن يقوم مساعدو الذكاء الاصطناعي لدينا ، تمامًا مثل البشر ، بتلطيف صدقهم: لحماية الخصوصية ، أو لتجنب إهانة الآخرين ، أو للحفاظ على شخص ما آمنًا ، من بين مواقف أخرى لا حصر لها يصعب التعبير عنها.

المفاهيم الأخلاقية الأخرى معقدة بنفس القدر. يجب أن يكون واضحًا أن الخطوة الأولى الأساسية نحو تدريس المفاهيم الأخلاقية للآلات تتمثل في تمكين الآلات من استيعاب المفاهيم الشبيهة بالبشر في المقام الأول ، والتي جادلت أنها لا تزال تخص الذكاء الاصطناعي. أهم مشكلة مفتوحة.

علاوة على ذلك ، أرى مشكلة أكثر جوهرية في المفاهيم العلمية الكامنة وراء محاذاة الذكاء الاصطناعي. تتخيل معظم المناقشات ذكاءً فائق الذكاء كآلة ، بينما تتفوق على البشر في جميع المهام المعرفية ، لا تزال تفتقر إلى الحس السليم مثل الإنسان وتبقى ميكانيكية بطبيعتها بشكل غريب. والأهم من ذلك ، تماشياً مع أطروحة التعامدية لبوستروم ، حققت الآلة ذكاءً خارقًا دون أن يكون لها أي من أهدافها أو قيمها الخاصة ، وبدلاً من ذلك تنتظر الأهداف ليُدخلها البشر.

ومع ذلك ، هل يمكن للذكاء أن يعمل بهذه الطريقة؟ لا شيء في علم النفس أو علم الأعصاب الحالي يدعم هذا الاحتمال. في البشر ، على الأقل ، يرتبط الذكاء ارتباطًا وثيقًا بأهدافنا وقيمنا ، بالإضافة إلى إحساسنا بأنفسنا وبيئتنا الاجتماعية والثقافية الخاصة. وقد أدى إلى الحدس القائل بأن نوعًا من الذكاء الخالص يمكن فصله عن هذه العوامل الأخرى العديد من التوقعات الفاشلة في تاريخ الذكاء الاصطناعي. مما نعرفه ، يبدو أنه من الأرجح أنه لا يمكن إدراج أهداف نظام الذكاء الاصطناعي بشكل عام بسهولة ، ولكن يجب تطويرها ، مثل أهدافنا ، نتيجة لتنشئته الاجتماعية والثقافية الخاصة.

في كتابه متوافق الإنسانيجادل راسل بإلحاح البحث حول مشكلة التوافق: "الوقت المناسب للقلق بشأن مشكلة محتملة خطيرة للبشرية لا يعتمد فقط على وقت حدوث المشكلة ولكن أيضًا على المدة التي سيستغرقها إعداد وتنفيذ حل. " ولكن بدون فهم أفضل لماهية الذكاء وكيف يمكن فصله عن جوانب أخرى من حياتنا ، لا يمكننا حتى تحديد المشكلة ، ناهيك عن إيجاد حل. لن يكون تحديد مشكلة المحاذاة وحلها بشكل صحيح أمرًا سهلاً ؛ سيتطلب منا تطوير نظرية علمية واسعة للذكاء.

الطابع الزمني:

اكثر من كوانتماجازين