بهترین روش‌ها برای استقرار مدل‌های زبانی هوش داده پلاتوبلاکچین. جستجوی عمودی Ai.

بهترین روش ها برای استقرار مدل های زبان

بهترین روش ها برای استقرار مدل های زبان

آزمایشگاه‌های Cohere، OpenAI و AI21 مجموعه‌ای مقدماتی از بهترین روش‌ها را توسعه داده‌اند که برای هر سازمانی که مدل‌های زبان بزرگ را توسعه می‌دهد یا به کار می‌گیرد، قابل اجرا است. رایانه‌هایی که می‌توانند بخوانند و بنویسند اینجا هستند و این پتانسیل را دارند که بر زندگی روزمره تأثیر اساسی بگذارند. آینده تعامل انسان و ماشین پر از امکان و نوید است، اما هر فناوری قدرتمندی نیاز به استقرار دقیق دارد.

بیانیه مشترک زیر گامی به سوی ایجاد جامعه ای برای رسیدگی به چالش های جهانی ارائه شده توسط پیشرفت هوش مصنوعی است، و ما سازمان های دیگری را که مایل به مشارکت هستند تشویق می کنیم که با هم تماس بگیرند.

توصیه مشترک برای استقرار مدل زبان

ما چندین اصل کلیدی را برای کمک به ارائه دهندگان مدل های زبان بزرگ (LLM) توصیه می کنیم تا خطرات این فناوری را کاهش دهند تا به وعده کامل آن برای افزایش توانایی های انسانی دست یابند.

در حالی که این اصول به طور خاص بر اساس تجربه ما در ارائه LLM از طریق یک API توسعه یافته است، امیدواریم بدون توجه به استراتژی انتشار (مانند منبع باز یا استفاده در یک شرکت) مفید باشند. ما انتظار داریم که این توصیه ها در طول زمان به طور قابل توجهی تغییر کند زیرا استفاده تجاری از LLM و ملاحظات ایمنی همراه آن جدید و در حال تکامل است. ما فعالانه در حال یادگیری و رفع محدودیت‌های LLM و راه‌های استفاده نادرست هستیم و این اصول و شیوه‌ها را با همکاری جامعه گسترده‌تر در طول زمان به‌روزرسانی خواهیم کرد.

ما این اصول را به اشتراک می گذاریم به این امید که سایر ارائه دهندگان LLM ممکن است از آنها بیاموزند و بپذیرند، و بحث عمومی را در مورد توسعه و استقرار LLM پیش ببریم.

استفاده نادرست را ممنوع کنید


دستورالعمل های استفاده و شرایط استفاده را منتشر کنید از LLM ها به گونه ای که آسیب مادی به افراد، جوامع و جامعه را از جمله از طریق هرزنامه، کلاهبرداری، یا نجومی ممنوع کند. دستورالعمل‌های استفاده همچنین باید دامنه‌هایی را مشخص کند که استفاده از LLM به بررسی بیشتر نیاز دارد و موارد استفاده پرخطر را که مناسب نیستند، مانند طبقه‌بندی افراد بر اساس ویژگی‌های محافظت‌شده، ممنوع کند.


ایجاد سیستم ها و زیرساخت ها برای اجرای دستورالعمل های استفاده. این ممکن است شامل محدودیت‌های نرخ، فیلتر محتوا، تأیید برنامه قبل از دسترسی به تولید، نظارت بر فعالیت‌های غیرعادی و سایر اقدامات کاهشی باشد.

آسیب های ناخواسته را کاهش دهید


به طور فعال رفتار مدل مضر را کاهش دهید. بهترین شیوه‌ها شامل ارزیابی مدل جامع برای ارزیابی صحیح محدودیت‌ها، به حداقل رساندن منابع بالقوه سوگیری در مجموعه‌های آموزشی، و تکنیک‌هایی برای به حداقل رساندن رفتار ناایمن مانند یادگیری از بازخورد انسانی است.


ضعف ها و آسیب پذیری های شناخته شده را مستند کنیدمانند سوگیری یا توانایی تولید کد ناامن، زیرا در برخی موارد هیچ درجه ای از اقدام پیشگیرانه نمی تواند احتمال آسیب ناخواسته را به طور کامل از بین ببرد. مستندات همچنین باید شامل بهترین شیوه های ایمنی مدل و مورد استفاده باشد.

اندیشمندانه با ذینفعان همکاری کنید


تیم هایی با پیشینه های متنوع بسازید و درخواست ورودی گسترده. دیدگاه‌های متنوعی برای توصیف و پرداختن به نحوه عملکرد مدل‌های زبانی در تنوع دنیای واقعی مورد نیاز است، جایی که اگر کنترل نشود ممکن است تعصبات را تقویت کند یا برای برخی گروه‌ها کار نکند.


درس های آموخته شده در مورد ایمنی و استفاده نادرست از LLM را به صورت عمومی افشا کنید به منظور امکان پذیرش گسترده و کمک به تکرار بین صنعتی در مورد بهترین شیوه ها.


با تمام نیروی کار در زنجیره تامین مدل زبان با احترام رفتار کنید. به عنوان مثال، ارائه دهندگان باید استانداردهای بالایی برای شرایط کاری کسانی داشته باشند که خروجی های مدل را در داخل بررسی می کنند و فروشندگان را مطابق با استانداردهای مشخص شده نگه دارند (مثلاً اطمینان حاصل شود که برچسب گذاران قادر به انصراف از یک کار معین هستند).

به عنوان ارائه دهندگان LLM، انتشار این اصول اولین گام در هدایت مشترک توسعه و استقرار مدل زبان بزرگ تر را نشان می دهد. ما از ادامه همکاری با یکدیگر و با طرف‌های دیگر برای شناسایی فرصت‌های دیگر برای کاهش آسیب‌های ناخواسته و جلوگیری از استفاده مخرب از مدل‌های زبانی هیجان‌زده هستیم.

دانلود به عنوان PDF

پشتیبانی از سایر سازمان ها

"در حالی که LLM ها وعده های زیادی دارند، مسائل ایمنی ذاتی مهمی دارند که باید روی آنها کار کرد. این بهترین شیوه ها به عنوان گام مهمی در به حداقل رساندن آسیب های این مدل ها و به حداکثر رساندن مزایای بالقوه آنها عمل می کند.

-انتروپیک

از آنجایی که مدل‌های زبان بزرگ (LLM) به طور فزاینده‌ای قدرتمند و رسا می‌شوند، کاهش خطر اهمیت فزاینده‌ای پیدا می‌کند. ما از این تلاش‌ها و سایر تلاش‌ها برای کاهش آسیب‌ها و برجسته کردن مناطقی که نیاز به دقت بیشتری دارند برای کاربران استقبال می‌کنیم. اصولی که در اینجا ذکر شده است سهم مهمی در گفتگوی جهانی است.»

- جان بانسمر، مدیر پروژه CyberAI و همکار ارشد، مرکز امنیت و فناوری های نوظهور (CSET)

«گوگل بر اهمیت استراتژی‌های جامع در تجزیه و تحلیل داده‌های مدل و آموزش برای کاهش خطرات آسیب، سوگیری و ارائه نادرست تأکید می‌کند. این یک گام متفکرانه است که توسط این ارائه دهندگان هوش مصنوعی برای ترویج اصول و اسناد به سمت ایمنی هوش مصنوعی برداشته شده است.

- پلت فرم Google Cloud (GCP)

«ایمنی مدل‌های پایه، مانند مدل‌های زبان بزرگ، یک نگرانی اجتماعی رو به رشد است. ما آزمایشگاه‌های Cohere، OpenAI و AI21 را به خاطر برداشتن اولین گام برای ترسیم اصول سطح بالا برای توسعه و استقرار مسئولانه از دیدگاه توسعه‌دهندگان مدل تحسین می‌کنیم. هنوز کار زیادی باید انجام شود، و ما معتقدیم که برای توسعه اصول دقیق‌تر و هنجارهای جامعه ضروری است که صدای بیشتری از دانشگاه، صنعت و جامعه مدنی درگیر شود. همانطور که در اخیر خود بیان می کنیم پست های وبلاگاین فقط نتیجه نهایی نیست، بلکه مشروعیت فرآیند است که مهم است.»

- پرسی لیانگ، مدیر مرکز تحقیقات مدل های بنیادی استنفورد (CRFM)

درگیر کاری شدن

اگر در حال توسعه مدل های زبانی هستید یا برای کاهش خطرات آنها تلاش می کنید، مایلیم با شما صحبت کنیم. لطفا تماس بگیرید bestpractices@openai.com.

تمبر زمان:

بیشتر از OpenAI

GPT-4

گره منبع: 1813337
تمبر زمان: مار 14، 2023