ChatGPT: ایمن‌تر کردن همه چیز (سایمون تامپسون)

ChatGPT: ایمن‌تر کردن همه چیز (سایمون تامپسون)

ChatGPT: ایمن‌تر کردن کارها (سایمون تامپسون) هوش داده پلاتو بلاک چین. جستجوی عمودی Ai.

In بخش اول این وبلاگ من فناوری جدید و قدرتمند ChatGPT را بررسی کردم. در این بخش دوم و پایانی، من به بررسی بهترین شیوه‌های مورد نیاز برای استفاده از آن تا حد امکان ایمن و ایمن می‌پردازم.

کاملاً واضح است که ما ChatGPT را دوباره در بطری قرار نمی دهیم. تکنیک های مورد استفاده برای ایجاد آن به خوبی شناخته شده است، و اگرچه مقدار محاسبه مورد نیاز اکنون قهرمانانه به نظر می رسد، در آینده نسبتاً نزدیک به طور گسترده ای در دسترس خواهد بود. حتی اگر قیمت‌های محاسباتی در آینده نزدیک به شدت کاهش پیدا نکند، نوع محاسبات مورد نیاز برای ایجاد GPT3.5 در حال حاضر برای بسیاری از بازیگران دولتی و طیف گسترده‌ای از بازیگران غیردولتی در دسترس است.

گوگل «Bard» را بر اساس فناوری LAMDA خود معرفی کرده است که آنقدر قانع‌کننده است که یک مهندس داخلی متقاعد شد که روح دارد و Deepmind یک ربات چت به نام «Sparrow» توسعه داده است که «بعضی‌ها ادعا می‌کنند» از نظر فنی برتر از ChatGPT است.

خطرات بزرگ احتمالاً از سوی شرکت های فوق العاده پیچیده ای مانند آلفابت ناشی نمی شود. شرکت های کوچکتر با نگرش "سریع حرکت کنید و چیزها را خراب کنید" احتمالاً با ایده های کاربردی خود خلاق و ماجراجو هستند. اما آسیب های بسیار واقعی برای افراد بسیار واقعی با این نوع سیستم امکان پذیر است و این آسیب ها می توانند به راحتی و به سرعت توسط تیم های کوچک غیر متخصص پیاده سازی شوند.

پنج نکته مهم برای ایمن تر کردن ChatGPT

اگرچه راه‌های زیادی برای «نه» وجود دارد و تنها یک مسیر برای «بله» وجود دارد، هنوز برنامه‌های زیادی وجود خواهند داشت که به عنوان معقول شناخته شوند. اما این باعث امنیت آنها نمی شود. برای اطمینان از یک برنامه مبتنی بر ChatGPT، همچنین پیشنهاد می شود مراحل زیر را اجرا کنید.

  1. نباید فریب کاری در مورد آنچه که کاربران با آن در تعامل هستند وجود داشته باشد. اگر مطلع نباشید نمی توانید رضایت آگاهانه بدهید. Saleema Amershi و همکاران [1] دستورالعمل های عالی برای تعامل برای سیستم های AI منتشر کرده اند. مهمتر از همه، اینها ساختاری را برای در نظر گرفتن تعامل در طول چرخه عمر تعامل کاربر فراهم می کنند. این دستورالعمل ها شامل این است که چگونه می توان برای کاربر روشن کرد که با چه چیزی در تعامل است و چگونه به آنها در مورد آنچه از او انتظار می رود آموزش دهد. راهنمایی آمرشی در سراسر تعامل، مدیریت شکست و اضافه کاری گسترش می یابد، زیرا سیستم به "کسب و کار معمول" تبدیل می شود.
  2. کاربران باید این گزینه را داشته باشند که با سیستم تعامل نداشته باشند. یک گزینه واقعی - برای مثال یک کانال تماس جایگزین.
  3. باید یک ارزیابی تاثیر به هر برنامه پیوست شود. آن را مانند فایل robots.txt در وب سایت قرار دهید، یا همانطور که مجوزی را به کد منبع خود اضافه می کنید. فرآیند AIA کانادا مدلی برای این نوع چیزها ارائه می دهد، اما برخی از سوالات اساسی شروع خوبی هستند. اگر طبق برنامه عمل کند به چه کسی آسیب می رساند؟ اگر چت ربات اشتباه کند چه کسی آسیب می بیند؟ آیا کسی می تواند بگوید که آیا چت بات اشتباه می کند یا خیر، و آیا می تواند آن را متوقف کند و در صورت وجود آن وضعیت را ترمیم کند؟
  4. اگر سیستم شما می‌تواند تأثیر نامطلوبی بر دیگران داشته باشد، باید نظارت و گزارشی از آنچه سیستم انجام می‌دهد و نحوه رفتار آن وجود داشته باشد. اینها باید به گونه ای حفظ شوند که در صورت نیاز، امکان بررسی پزشکی قانونی رفتار سیستم را فراهم کنند.
  5. اگر شما شخصاً و مستقیماً مسئول سیستم نیستید، باید یک فرآیند حاکمیتی مستند به وضوح ایجاد و حفظ شود. بخشی از این باید توضیح دهد که چگونه کاربران می توانند برای کمک تماس بگیرند و چگونه می توانند از سیستم شکایت کنند. همچنین باید توضیح دهد که فرآیندهای مربوط به رسیدگی به ناراحتی و شکایات کاربر چگونه باید باشد.

پتانسیل ارزش زیادی در بسیاری از موارد استفاده

با کنترل‌ها و فرآیندهای صحیح، مدل‌های جدید زبان بزرگ مانند ChatGPT در بسیاری از موارد استفاده، البته با کنترل‌ها و بررسی‌های ضروری، ارزش زیادی به همراه خواهد داشت تا اطمینان حاصل شود که کاربران و کاربران نهایی از هرگونه سوء تفاهم محافظت می‌شوند.

  1. امرشی، سلیمه. "راهنمای تعامل انسان و هوش مصنوعی." کنفرانس CHI در مورد عوامل انسانی در سیستم های محاسباتی. CHI، 2019. 1-13.

تمبر زمان:

بیشتر از فینسترا