آزمایشگاههای Cohere، OpenAI و AI21 مجموعهای مقدماتی از بهترین روشها را توسعه دادهاند که برای هر سازمانی که مدلهای زبان بزرگ را توسعه میدهد یا به کار میگیرد، قابل اجرا است. رایانههایی که میتوانند بخوانند و بنویسند اینجا هستند و این پتانسیل را دارند که بر زندگی روزمره تأثیر اساسی بگذارند. آینده تعامل انسان و ماشین پر از امکان و نوید است، اما هر فناوری قدرتمندی نیاز به استقرار دقیق دارد.
بیانیه مشترک زیر گامی به سوی ایجاد جامعه ای برای رسیدگی به چالش های جهانی ارائه شده توسط پیشرفت هوش مصنوعی است، و ما سازمان های دیگری را که مایل به مشارکت هستند تشویق می کنیم که با هم تماس بگیرند.
توصیه مشترک برای استقرار مدل زبان
ما چندین اصل کلیدی را برای کمک به ارائه دهندگان مدل های زبان بزرگ (LLM) توصیه می کنیم تا خطرات این فناوری را کاهش دهند تا به وعده کامل آن برای افزایش توانایی های انسانی دست یابند.
در حالی که این اصول به طور خاص بر اساس تجربه ما در ارائه LLM از طریق یک API توسعه یافته است، امیدواریم بدون توجه به استراتژی انتشار (مانند منبع باز یا استفاده در یک شرکت) مفید باشند. ما انتظار داریم که این توصیه ها در طول زمان به طور قابل توجهی تغییر کند زیرا استفاده تجاری از LLM و ملاحظات ایمنی همراه آن جدید و در حال تکامل است. ما فعالانه در حال یادگیری و رفع محدودیتهای LLM و راههای استفاده نادرست هستیم و این اصول و شیوهها را با همکاری جامعه گستردهتر در طول زمان بهروزرسانی خواهیم کرد.
ما این اصول را به اشتراک می گذاریم به این امید که سایر ارائه دهندگان LLM ممکن است از آنها بیاموزند و بپذیرند، و بحث عمومی را در مورد توسعه و استقرار LLM پیش ببریم.
استفاده نادرست را ممنوع کنید
دستورالعمل های استفاده و شرایط استفاده را منتشر کنید از LLM ها به گونه ای که آسیب مادی به افراد، جوامع و جامعه را از جمله از طریق هرزنامه، کلاهبرداری، یا نجومی ممنوع کند. دستورالعملهای استفاده همچنین باید دامنههایی را مشخص کند که استفاده از LLM به بررسی بیشتر نیاز دارد و موارد استفاده پرخطر را که مناسب نیستند، مانند طبقهبندی افراد بر اساس ویژگیهای محافظتشده، ممنوع کند.
ایجاد سیستم ها و زیرساخت ها برای اجرای دستورالعمل های استفاده. این ممکن است شامل محدودیتهای نرخ، فیلتر محتوا، تأیید برنامه قبل از دسترسی به تولید، نظارت بر فعالیتهای غیرعادی و سایر اقدامات کاهشی باشد.
آسیب های ناخواسته را کاهش دهید
به طور فعال رفتار مدل مضر را کاهش دهید. بهترین شیوهها شامل ارزیابی مدل جامع برای ارزیابی صحیح محدودیتها، به حداقل رساندن منابع بالقوه سوگیری در مجموعههای آموزشی، و تکنیکهایی برای به حداقل رساندن رفتار ناایمن مانند یادگیری از بازخورد انسانی است.
ضعف ها و آسیب پذیری های شناخته شده را مستند کنیدمانند سوگیری یا توانایی تولید کد ناامن، زیرا در برخی موارد هیچ درجه ای از اقدام پیشگیرانه نمی تواند احتمال آسیب ناخواسته را به طور کامل از بین ببرد. مستندات همچنین باید شامل بهترین شیوه های ایمنی مدل و مورد استفاده باشد.
اندیشمندانه با ذینفعان همکاری کنید
تیم هایی با پیشینه های متنوع بسازید و درخواست ورودی گسترده. دیدگاههای متنوعی برای توصیف و پرداختن به نحوه عملکرد مدلهای زبانی در تنوع دنیای واقعی مورد نیاز است، جایی که اگر کنترل نشود ممکن است تعصبات را تقویت کند یا برای برخی گروهها کار نکند.
درس های آموخته شده در مورد ایمنی و استفاده نادرست از LLM را به صورت عمومی افشا کنید به منظور امکان پذیرش گسترده و کمک به تکرار بین صنعتی در مورد بهترین شیوه ها.
با تمام نیروی کار در زنجیره تامین مدل زبان با احترام رفتار کنید. به عنوان مثال، ارائه دهندگان باید استانداردهای بالایی برای شرایط کاری کسانی داشته باشند که خروجی های مدل را در داخل بررسی می کنند و فروشندگان را مطابق با استانداردهای مشخص شده نگه دارند (مثلاً اطمینان حاصل شود که برچسب گذاران قادر به انصراف از یک کار معین هستند).
به عنوان ارائه دهندگان LLM، انتشار این اصول اولین گام در هدایت مشترک توسعه و استقرار مدل زبان بزرگ تر را نشان می دهد. ما از ادامه همکاری با یکدیگر و با طرفهای دیگر برای شناسایی فرصتهای دیگر برای کاهش آسیبهای ناخواسته و جلوگیری از استفاده مخرب از مدلهای زبانی هیجانزده هستیم.
پشتیبانی از سایر سازمان ها
"در حالی که LLM ها وعده های زیادی دارند، مسائل ایمنی ذاتی مهمی دارند که باید روی آنها کار کرد. این بهترین شیوه ها به عنوان گام مهمی در به حداقل رساندن آسیب های این مدل ها و به حداکثر رساندن مزایای بالقوه آنها عمل می کند.
-انتروپیک
از آنجایی که مدلهای زبان بزرگ (LLM) به طور فزایندهای قدرتمند و رسا میشوند، کاهش خطر اهمیت فزایندهای پیدا میکند. ما از این تلاشها و سایر تلاشها برای کاهش آسیبها و برجسته کردن مناطقی که نیاز به دقت بیشتری دارند برای کاربران استقبال میکنیم. اصولی که در اینجا ذکر شده است سهم مهمی در گفتگوی جهانی است.»
- جان بانسمر، مدیر پروژه CyberAI و همکار ارشد، مرکز امنیت و فناوری های نوظهور (CSET)
«گوگل بر اهمیت استراتژیهای جامع در تجزیه و تحلیل دادههای مدل و آموزش برای کاهش خطرات آسیب، سوگیری و ارائه نادرست تأکید میکند. این یک گام متفکرانه است که توسط این ارائه دهندگان هوش مصنوعی برای ترویج اصول و اسناد به سمت ایمنی هوش مصنوعی برداشته شده است.
- پلت فرم Google Cloud (GCP)
«ایمنی مدلهای پایه، مانند مدلهای زبان بزرگ، یک نگرانی اجتماعی رو به رشد است. ما آزمایشگاههای Cohere، OpenAI و AI21 را به خاطر برداشتن اولین گام برای ترسیم اصول سطح بالا برای توسعه و استقرار مسئولانه از دیدگاه توسعهدهندگان مدل تحسین میکنیم. هنوز کار زیادی باید انجام شود، و ما معتقدیم که برای توسعه اصول دقیقتر و هنجارهای جامعه ضروری است که صدای بیشتری از دانشگاه، صنعت و جامعه مدنی درگیر شود. همانطور که در اخیر خود بیان می کنیم پست های وبلاگاین فقط نتیجه نهایی نیست، بلکه مشروعیت فرآیند است که مهم است.»
- پرسی لیانگ، مدیر مرکز تحقیقات مدل های بنیادی استنفورد (CRFM)
درگیر کاری شدن
اگر در حال توسعه مدل های زبانی هستید یا برای کاهش خطرات آنها تلاش می کنید، مایلیم با شما صحبت کنیم. لطفا تماس بگیرید bestpractices@openai.com.
- توانایی
- درباره ما
- دسترسی
- رسیدن
- عمل
- فعالیت
- نشانی
- خطاب به
- اتخاذ
- پیشرفت
- AI
- معرفی
- API
- مربوط
- کاربرد
- مناسب
- زیرا
- شدن
- در زیر
- مزایای
- بهترین
- بهترین شیوه
- بنا
- قابلیت های
- موارد
- زنجیر
- چالش ها
- تغییر دادن
- ابر
- بستر ابری
- رمز
- همکاری
- همکاری
- تجاری
- جوامع
- انجمن
- شرکت
- به طور کامل
- جامع
- کامپیوتر
- شرایط
- ملاحظات
- ظرف
- محتوا
- ادامه دادن
- گفتگو
- داده ها
- استقرار
- گسترش
- دقیق
- توسعه
- توسعه
- توسعه دهندگان
- در حال توسعه
- پروژه
- سخت کوشی
- مدیر
- تنوع
- حوزه
- تلاش
- از بین بردن
- سنگ سنباده
- قادر ساختن
- تشویق
- تعامل
- حصول اطمینان از
- ضروری است
- ارزیابی
- در حال تحول
- مثال
- برانگیخته
- انتظار
- تجربه
- رسا
- باز خورد
- فیلتر
- نام خانوادگی
- پایه
- تقلب
- کامل
- اساساً
- آینده
- جهانی
- گوگل
- گروه ها
- در حال رشد
- دستورالعمل ها
- کمک
- اینجا کلیک نمایید
- زیاد
- ریسک بالا
- نماد
- نگه داشتن
- امیدوار
- چگونه
- HTTPS
- انسان
- شناسایی
- تأثیر
- اهمیت
- مهم
- شامل
- به طور فزاینده
- افراد
- صنعت
- شالوده
- ذاتی
- ورودی
- اثر متقابل
- مسائل
- IT
- کلید
- شناخته شده
- کار
- آزمایشگاه
- زبان
- بزرگ
- یاد گرفتن
- آموخته
- یادگیری
- مشروعیت
- درس های آموخته شده
- عشق
- دستگاه
- ماده
- مسائل
- مدل
- مدل
- نظارت بر
- بیش
- نیازهای
- کار
- فرصت ها
- سفارش
- کدام سازمان ها
- سازمان های
- دیگر
- شرکت کردن
- مردم
- چشم انداز
- دیدگاه
- سکو
- امکان
- پتانسیل
- قوی
- روند
- تولید کردن
- تولید
- پروژه
- وعده
- ترویج
- محفوظ
- ارائه
- عمومی
- انتشار
- RE
- رسیدن به
- دنیای واقعی
- توصیه
- كاهش دادن
- با توجه
- آزاد
- نشان دهنده
- نیاز
- تحقیق
- مسئوليت
- خطر
- خطرات
- امن تر
- ایمنی
- تیم امنیت لاتاری
- تنظیم
- چند
- اشتراک
- قابل توجه
- آگاهی
- جامعه
- برخی از
- اسپم
- به طور خاص
- استانداردهای
- دولت
- بیانیه
- استراتژی ها
- استراتژی
- عرضه
- زنجیره تامین
- سیستم های
- مصرف
- صحبت
- تکنیک
- پیشرفته
- قوانین و مقررات
- La
- از طریق
- زمان
- لمس
- طرف
- آموزش
- بروزرسانی
- استفاده کنید
- موارد استفاده
- کاربران
- فروشندگان
- صداها
- خوش آمد
- در حین
- WHO
- بطور گسترده
- در داخل
- مهاجرت کاری
- مشغول به کار
- کارگر
- جهان
- خواهد بود