שיטות עבודה מומלצות לפריסת מודלים של שפה PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

שיטות עבודה מומלצות לפריסת מודלים של שפה

שיטות עבודה מומלצות לפריסת מודלים של שפה

מעבדות Cohere, OpenAI ו-AI21 פיתחו מערך ראשוני של שיטות עבודה מומלצות החלות על כל ארגון שמפתח או פורס מודלים של שפה גדולים. מחשבים שיכולים לקרוא ולכתוב נמצאים כאן, ויש להם פוטנציאל להשפיע באופן מהותי על חיי היומיום. העתיד של אינטראקציה בין אדם למכונה מלא באפשרויות והבטחות, אבל כל טכנולוגיה חזקה מצריכה פריסה זהירה.

ההצהרה המשותפת להלן מייצגת צעד לקראת בניית קהילה שתתמודד עם האתגרים הגלובליים שמציגה התקדמות הבינה המלאכותית, ואנו מעודדים ארגונים אחרים שירצו להשתתף ליצור קשר.

המלצה משותפת לפריסת מודל שפה

אנו ממליצים על מספר עקרונות מפתח שיעזרו לספקים של מודלים של שפה גדולה (LLMs) לצמצם את הסיכונים של טכנולוגיה זו כדי להשיג את ההבטחה המלאה שלה להגביר את היכולות האנושיות.

אמנם עקרונות אלה פותחו במיוחד על סמך הניסיון שלנו במתן LLMs דרך API, אך אנו מקווים שהם יהיו שימושיים ללא קשר לאסטרטגיית השחרור (כגון מקורות פתוחים או שימוש בתוך חברה). אנו מצפים שהמלצות אלו ישתנו באופן משמעותי לאורך זמן מכיוון שהשימושים המסחריים של LLMs ושיקולי בטיחות הנלווים הם חדשים ומתפתחים. אנו לומדים באופן פעיל על מגבלות LLM ודרכים לשימוש לרעה ומטפלים בהן, ונעדכן את העקרונות והפרקטיקות הללו בשיתוף עם הקהילה הרחבה יותר לאורך זמן.

אנו חולקים את העקרונות הללו בתקווה שספקי LLM אחרים יוכלו ללמוד מהם ולאמץ אותם, וכדי לקדם דיון ציבורי על פיתוח ופריסה של LLM.

לאסור שימוש לרעה


פרסם הנחיות שימוש ותנאי שימוש של LLMs באופן שאוסר על פגיעה מהותית ביחידים, קהילות וחברה כגון באמצעות דואר זבל, הונאה או אסטרוטורפינג. הנחיות השימוש צריכות גם לציין תחומים שבהם השימוש ב-LLM מצריך בדיקה נוספת ולאסור מקרי שימוש בסיכון גבוה שאינם מתאימים, כגון סיווג אנשים על סמך מאפיינים מוגנים.


בניית מערכות ותשתית לאכיפת הנחיות שימוש. זה עשוי לכלול מגבלות תעריפים, סינון תוכן, אישור אפליקציה לפני גישה לייצור, ניטור אחר פעילות חריגה והקלות אחרות.

לצמצם פגיעה לא מכוונת


הפחת באופן יזום התנהגות מזיקה של מודל. שיטות עבודה מומלצות כוללות הערכת מודל מקיפה כדי להעריך כראוי מגבלות, מזעור מקורות פוטנציאליים להטיה בגוף האימון וטכניקות למזער התנהגות לא בטוחה כמו דרך למידה ממשוב אנושי.


תיעוד חולשות ונקודות תורפה ידועות, כגון הטיה או יכולת לייצר קוד לא מאובטח, מכיוון שבמקרים מסוימים שום מידת פעולה מונעת לא יכולה לבטל לחלוטין את הפוטנציאל לנזק לא מכוון. התיעוד צריך לכלול גם שיטות בטיחות מומלצות ספציפיות למודל ולמקרה שימוש.

שיתוף פעולה מתחשב עם בעלי עניין


בניית צוותים עם רקע מגוון ולבקש מידע רחב. דרושות נקודות מבט מגוונות כדי לאפיין ולהתייחס לאופן שבו יפעלו מודלים של שפה במגוון של העולם האמיתי, כאשר אם לא ייבדקו הם עלולים לחזק הטיות או לא לעבוד עבור קבוצות מסוימות.


חשפו בפומבי לקחים שנלמדו לגבי בטיחות ושימוש לרעה ב-LLM על מנת לאפשר אימוץ נרחב ועזרה באיטרציה בין תעשיות על שיטות עבודה מומלצות.


התייחס בכבוד לכל העבודה בשרשרת האספקה ​​של מודל השפה. לדוגמה, לספקים צריכים להיות סטנדרטים גבוהים לתנאי העבודה של אלה הבודקים תפוקות של מודלים בתוך הבית ולהעמיד את הספקים בסטנדרטים מוגדרים היטב (למשל, הבטחת שמותגים יכולים לבטל את הסכמתם למשימה נתונה).

כספקי LLM, פרסום עקרונות אלה מייצג צעד ראשון בהנחיה משותפת של פיתוח ופריסה בטוחה יותר של מודלים של שפה גדולה. אנו נרגשים להמשיך לעבוד אחד עם השני ועם גורמים אחרים כדי לזהות הזדמנויות אחרות לצמצם נזקים לא מכוונים ממודלים של שפה ולמנוע שימוש זדוני.

הורד כ-PDF

תמיכה מארגונים אחרים

"למרות שלימודי תואר שני מבטיחים הבטחות רבות, יש להם בעיות בטיחות משמעותיות שצריכים לעבוד עליהן. שיטות עבודה מומלצות אלו משמשות צעד חשוב במזעור הנזקים של מודלים אלו ומקסום היתרונות הפוטנציאליים שלהם".

- אנתרופית

"ככל שמודלים של שפה גדולים (LLMs) הפכו ליותר ויותר עוצמתיים ובעלי ביטוי, הפחתת סיכונים הופכת חשובה יותר ויותר. אנו מקדמים בברכה מאמצים אלה ואחרים כדי לנסות באופן יזום לצמצם נזקים ולהדגיש בפני המשתמשים תחומים הדורשים חריצות נוספת. העקרונות המתוארים כאן הם תרומה חשובה לשיחה העולמית".

-ג'ון בנסמר, מנהל פרויקט CyberAI ועמית בכיר, המרכז לאבטחה וטכנולוגיה מתעוררת (CSET)

"גוגל מאשרת את החשיבות של אסטרטגיות מקיפות בניתוח נתוני מודל והדרכה כדי להפחית את הסיכונים של נזק, הטיה והטעיה. זהו צעד מתחשב שנקטו ספקי AI אלה כדי לקדם את העקרונות והתיעוד לקראת בטיחות AI."

-Google Cloud Platform (GCP)

"בטיחותם של מודלים בסיסיים, כמו מודלים של שפות גדולות, היא דאגה חברתית גוברת. אנו משבחים את Cohere, OpenAI ו-AI21 Labs על כך שעשו צעד ראשון כדי לשרטט עקרונות ברמה גבוהה לפיתוח ופריסה אחראית מנקודת המבט של מפתחי מודלים. יש עדיין עבודה רבה לעשות, ואנו מאמינים שחיוני לגייס יותר קולות מהאקדמיה, התעשייה והחברה האזרחית כדי לפתח עקרונות ונורמות קהילתיות מפורטים יותר. כפי שאנו מציינים באחרונה שלנו בלוג, לא רק התוצאה הסופית חשובה אלא הלגיטימציה של התהליך".

- פרסי ליאנג, מנהל מרכז סטנפורד למחקר על מודלים של יסודות (CRFM)

להתערב

אם אתם מפתחים מודלים של שפה או פועלים לצמצום הסיכונים שלהם, נשמח לדבר איתך. נא לפנות ב- bestpractices@openai.com.

בול זמן:

עוד מ OpenAI

GPT-4

צומת המקור: 1813337
בול זמן: מר 14, 2023