ChatGPT: جعل الأمور أكثر أمانًا (Simon Thompson)

ChatGPT: جعل الأمور أكثر أمانًا (Simon Thompson)

ChatGPT: جعل الأمور أكثر أمانًا (سايمون طومسون) ذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

In الجزء الأول من هذه المدونة لقد اختبرت التكنولوجيا الجديدة والقوية وهي ChatGPT. في هذا الجزء الثاني والأخير ، أستكشف أفضل الممارسات المطلوبة لجعل استخدامها آمنًا قدر الإمكان.

من الواضح أننا لن نعيد ChatGPT إلى الزجاجة. التقنيات المستخدمة في إنشائها معروفة جيدًا ، وعلى الرغم من أن مقدار الحساب المطلوب يبدو بطوليًا الآن ، إلا أنه في المستقبل القريب نسبيًا سيكون متاحًا على نطاق أوسع. حتى إذا لم تتغير أسعار الحوسبة بشكل جذري في المستقبل القريب ، فإن نوع الحوسبة المطلوب لإنشاء GPT3.5 متاح بالفعل للعديد من الجهات الفاعلة الحكومية ، ومجموعة واسعة من الجهات الفاعلة غير الحكومية.

أعلنت Google عن "Bard" استنادًا إلى تقنية LAMDA الخاصة بها والتي تعتبر مقنعة للغاية لدرجة أن مهندسًا داخليًا أصبح مقتنعًا بأن لديها روحًا ، وقد طور Deepmind برنامج دردشة يسمى "Sparrow" والذي "يدعي البعض" أنه متفوق تقنيًا على ChatGPT.

من غير المحتمل أن تأتي المخاطر الكبيرة من الشركات العملاقة المتطورة مثل Alphabet. من المرجح أن تكون الشركات الصغيرة التي تتبنى موقف "التحرك بسرعة وكسر الأشياء" مبدعة ومغامرة بأفكارها التطبيقية. ولكن من الممكن حدوث أضرار حقيقية جدًا لأشخاص حقيقيين جدًا باستخدام هذا النوع من الأنظمة ، ويمكن تنفيذها بسهولة وبسرعة بواسطة فرق صغيرة غير خبيرة.

أهم خمس نصائح لجعل ChatGPT أكثر أمانًا

على الرغم من وجود العديد من المسارات إلى "لا" وطريق واحد فقط إلى "نعم" ، فسيظل هناك الكثير من التطبيقات التي يتم تصنيفها على أنها معقولة. لكن هذا لن يجعلها آمنة. من أجل الثقة في تطبيق مدعوم من ChatGPT ، يُقترح أيضًا تنفيذ الخطوات التالية.

  1. يجب ألا يكون هناك خداع بشأن ما يتفاعل معه المستخدمون. لا يمكنك إعطاء الموافقة المسبقة إذا لم يتم إبلاغك. نشرت سليمة أمرشي وزملاؤها [1] إرشادات ممتازة للتفاعل لأنظمة الذكاء الاصطناعي. الأهم من ذلك ، أنها توفر هيكلًا للنظر في التفاعل طوال دورة حياة تفاعل المستخدم. تغطي الإرشادات كيفية توضيح ما يتفاعلون معه للمستخدم وكيفية إرشادهم إلى ما هو متوقع منهم. يمتد توجيه Amershi طوال التفاعل ، وإدارة الفشل والعمل الإضافي حيث يصبح النظام "يعمل كالمعتاد".
  2. يجب أن يكون لدى المستخدمين خيار عدم التفاعل مع النظام. خيار حقيقي - على سبيل المثال قناة اتصال بديلة.
  3. يجب أن يكون هناك تقييم للأثر مرفق بكل طلب. ضعه على موقع الويب كما تفعل مع ملف robots.txt ، أو كما قد تضيف ترخيصًا إلى شفرة المصدر الخاصة بك. تقدم عملية AIA الكندية نموذجًا لهذا النوع من الأشياء ، لكن بعض الأسئلة الأساسية هي بداية جيدة. من سيؤذي إذا كان يعمل على النحو المنشود؟ من سيتأذى إذا حدث خطأ في برنامج الدردشة الآلي؟ هل يمكن لأي شخص معرفة ما إذا كان برنامج الدردشة الآلي يعمل بشكل خاطئ ، وهل يمكنه إيقافه وإصلاح الموقف إذا كان كذلك؟
  4. إذا كان من الممكن أن يكون لنظامك تأثير سلبي على الآخرين ، فيجب أن يكون هناك مراقبة وتسجيل لما يفعله النظام وكيف يتصرف. يجب الحفاظ عليها بطريقة تسمح بالتحقيق الجنائي في سلوك النظام ، إذا لزم الأمر.
  5. إذا لم تكن مسؤولاً بشكل شخصي ومباشر عن النظام ، فيجب تطوير عملية حوكمة موثقة بشكل واضح والحفاظ عليها. يجب أن يصف جزء من هذا كيف يمكن للمستخدمين طلب المساعدة ، وكيف يمكنهم تقديم شكوى بشأن النظام. يجب أن يصف أيضًا ما يجب أن تكون عليه العمليات المتعلقة بمعالجة ضائقة المستخدم والشكاوى.

إمكانية الحصول على قيمة كبيرة في العديد من حالات الاستخدام

مع الضوابط والعمليات الصحيحة ، ستوفر نماذج اللغات الكبيرة الجديدة مثل ChatGPT قيمة كبيرة في العديد من حالات الاستخدام ، وإن كان ذلك مع الضوابط والضوابط الأساسية المعمول بها ، لضمان حماية المستخدمين والمستخدمين النهائيين من أي سوء فهم.

  1. أمرشي ، سليمة. "إرشادات للتفاعل بين الإنسان والذكاء الاصطناعي." مؤتمر CHI حول العوامل البشرية في أنظمة الحوسبة. CHI ، 2019. 1-13.

الطابع الزمني:

اكثر من فينتكسترا