מעבדות Cohere, OpenAI ו-AI21 פיתחו מערך ראשוני של שיטות עבודה מומלצות החלות על כל ארגון שמפתח או פורס מודלים של שפה גדולים. מחשבים שיכולים לקרוא ולכתוב נמצאים כאן, ויש להם פוטנציאל להשפיע באופן מהותי על חיי היומיום. העתיד של אינטראקציה בין אדם למכונה מלא באפשרויות והבטחות, אבל כל טכנולוגיה חזקה מצריכה פריסה זהירה.
ההצהרה המשותפת להלן מייצגת צעד לקראת בניית קהילה שתתמודד עם האתגרים הגלובליים שמציגה התקדמות הבינה המלאכותית, ואנו מעודדים ארגונים אחרים שירצו להשתתף ליצור קשר.
המלצה משותפת לפריסת מודל שפה
אנו ממליצים על מספר עקרונות מפתח שיעזרו לספקים של מודלים של שפה גדולה (LLMs) לצמצם את הסיכונים של טכנולוגיה זו כדי להשיג את ההבטחה המלאה שלה להגביר את היכולות האנושיות.
אמנם עקרונות אלה פותחו במיוחד על סמך הניסיון שלנו במתן LLMs דרך API, אך אנו מקווים שהם יהיו שימושיים ללא קשר לאסטרטגיית השחרור (כגון מקורות פתוחים או שימוש בתוך חברה). אנו מצפים שהמלצות אלו ישתנו באופן משמעותי לאורך זמן מכיוון שהשימושים המסחריים של LLMs ושיקולי בטיחות הנלווים הם חדשים ומתפתחים. אנו לומדים באופן פעיל על מגבלות LLM ודרכים לשימוש לרעה ומטפלים בהן, ונעדכן את העקרונות והפרקטיקות הללו בשיתוף עם הקהילה הרחבה יותר לאורך זמן.
אנו חולקים את העקרונות הללו בתקווה שספקי LLM אחרים יוכלו ללמוד מהם ולאמץ אותם, וכדי לקדם דיון ציבורי על פיתוח ופריסה של LLM.
לאסור שימוש לרעה
פרסם הנחיות שימוש ותנאי שימוש של LLMs באופן שאוסר על פגיעה מהותית ביחידים, קהילות וחברה כגון באמצעות דואר זבל, הונאה או אסטרוטורפינג. הנחיות השימוש צריכות גם לציין תחומים שבהם השימוש ב-LLM מצריך בדיקה נוספת ולאסור מקרי שימוש בסיכון גבוה שאינם מתאימים, כגון סיווג אנשים על סמך מאפיינים מוגנים.
בניית מערכות ותשתית לאכיפת הנחיות שימוש. זה עשוי לכלול מגבלות תעריפים, סינון תוכן, אישור אפליקציה לפני גישה לייצור, ניטור אחר פעילות חריגה והקלות אחרות.
לצמצם פגיעה לא מכוונת
הפחת באופן יזום התנהגות מזיקה של מודל. שיטות עבודה מומלצות כוללות הערכת מודל מקיפה כדי להעריך כראוי מגבלות, מזעור מקורות פוטנציאליים להטיה בגוף האימון וטכניקות למזער התנהגות לא בטוחה כמו דרך למידה ממשוב אנושי.
תיעוד חולשות ונקודות תורפה ידועות, כגון הטיה או יכולת לייצר קוד לא מאובטח, מכיוון שבמקרים מסוימים שום מידת פעולה מונעת לא יכולה לבטל לחלוטין את הפוטנציאל לנזק לא מכוון. התיעוד צריך לכלול גם שיטות בטיחות מומלצות ספציפיות למודל ולמקרה שימוש.
שיתוף פעולה מתחשב עם בעלי עניין
בניית צוותים עם רקע מגוון ולבקש מידע רחב. דרושות נקודות מבט מגוונות כדי לאפיין ולהתייחס לאופן שבו יפעלו מודלים של שפה במגוון של העולם האמיתי, כאשר אם לא ייבדקו הם עלולים לחזק הטיות או לא לעבוד עבור קבוצות מסוימות.
חשפו בפומבי לקחים שנלמדו לגבי בטיחות ושימוש לרעה ב-LLM על מנת לאפשר אימוץ נרחב ועזרה באיטרציה בין תעשיות על שיטות עבודה מומלצות.
התייחס בכבוד לכל העבודה בשרשרת האספקה של מודל השפה. לדוגמה, לספקים צריכים להיות סטנדרטים גבוהים לתנאי העבודה של אלה הבודקים תפוקות של מודלים בתוך הבית ולהעמיד את הספקים בסטנדרטים מוגדרים היטב (למשל, הבטחת שמותגים יכולים לבטל את הסכמתם למשימה נתונה).
כספקי LLM, פרסום עקרונות אלה מייצג צעד ראשון בהנחיה משותפת של פיתוח ופריסה בטוחה יותר של מודלים של שפה גדולה. אנו נרגשים להמשיך לעבוד אחד עם השני ועם גורמים אחרים כדי לזהות הזדמנויות אחרות לצמצם נזקים לא מכוונים ממודלים של שפה ולמנוע שימוש זדוני.
תמיכה מארגונים אחרים
"למרות שלימודי תואר שני מבטיחים הבטחות רבות, יש להם בעיות בטיחות משמעותיות שצריכים לעבוד עליהן. שיטות עבודה מומלצות אלו משמשות צעד חשוב במזעור הנזקים של מודלים אלו ומקסום היתרונות הפוטנציאליים שלהם".
- אנתרופית
"ככל שמודלים של שפה גדולים (LLMs) הפכו ליותר ויותר עוצמתיים ובעלי ביטוי, הפחתת סיכונים הופכת חשובה יותר ויותר. אנו מקדמים בברכה מאמצים אלה ואחרים כדי לנסות באופן יזום לצמצם נזקים ולהדגיש בפני המשתמשים תחומים הדורשים חריצות נוספת. העקרונות המתוארים כאן הם תרומה חשובה לשיחה העולמית".
-ג'ון בנסמר, מנהל פרויקט CyberAI ועמית בכיר, המרכז לאבטחה וטכנולוגיה מתעוררת (CSET)
"גוגל מאשרת את החשיבות של אסטרטגיות מקיפות בניתוח נתוני מודל והדרכה כדי להפחית את הסיכונים של נזק, הטיה והטעיה. זהו צעד מתחשב שנקטו ספקי AI אלה כדי לקדם את העקרונות והתיעוד לקראת בטיחות AI."
-Google Cloud Platform (GCP)
"בטיחותם של מודלים בסיסיים, כמו מודלים של שפות גדולות, היא דאגה חברתית גוברת. אנו משבחים את Cohere, OpenAI ו-AI21 Labs על כך שעשו צעד ראשון כדי לשרטט עקרונות ברמה גבוהה לפיתוח ופריסה אחראית מנקודת המבט של מפתחי מודלים. יש עדיין עבודה רבה לעשות, ואנו מאמינים שחיוני לגייס יותר קולות מהאקדמיה, התעשייה והחברה האזרחית כדי לפתח עקרונות ונורמות קהילתיות מפורטים יותר. כפי שאנו מציינים באחרונה שלנו בלוג, לא רק התוצאה הסופית חשובה אלא הלגיטימציה של התהליך".
- פרסי ליאנג, מנהל מרכז סטנפורד למחקר על מודלים של יסודות (CRFM)
להתערב
אם אתם מפתחים מודלים של שפה או פועלים לצמצום הסיכונים שלהם, נשמח לדבר איתך. נא לפנות ב- bestpractices@openai.com.
- יכולת
- אודות
- גישה
- להשיג
- פעולה
- פעילות
- כתובת
- פְּנִיָה
- אימוץ
- לקדם
- AI
- תעשיות
- API
- ישים
- בקשה
- מתאים
- כי
- להיות
- להלן
- הטבות
- הטוב ביותר
- שיטות עבודה מומלצות
- בִּניָן
- יכולות
- מקרים
- שרשרת
- האתגרים
- שינוי
- ענן
- פלטפורמת ענן
- קוד
- לשתף פעולה
- שיתוף פעולה
- מסחרי
- הקהילות
- קהילה
- חברה
- לחלוטין
- מַקִיף
- מחשבים
- תנאים
- שיקולים
- מכולה
- תוכן
- להמשיך
- שיחה
- נתונים
- פריסה
- פריסה
- מְפוֹרָט
- לפתח
- מפותח
- מפתחים
- מתפתח
- צעצועי התפתחות
- חָרִיצוּת
- מְנַהֵל
- גיוון
- תחומים
- מַאֲמָצִים
- בוטל
- מתעורר
- לאפשר
- לעודד
- לעסוק
- הבטחתי
- חיוני
- הערכה
- מתפתח
- דוגמה
- נרגש
- לצפות
- ניסיון
- אֶקְסְפּרֶסִיבִי
- מָשׁוֹב
- סינון
- ראשון
- קרן
- הונאה
- מלא
- ביסודו
- עתיד
- גלוֹבָּלִי
- קבוצה
- גדל
- הנחיות
- לעזור
- כאן
- גָבוֹהַ
- סיכון גבוה
- להבליט
- להחזיק
- מקווה
- איך
- HTTPS
- בן אנוש
- לזהות
- פְּגִיעָה
- חשיבות
- חשוב
- לכלול
- יותר ויותר
- אנשים
- תעשייה
- תשתית
- הטמון
- קלט
- אינטראקציה
- בעיות
- IT
- מפתח
- ידוע
- עבודה
- מעבדות
- שפה
- גָדוֹל
- לִלמוֹד
- למד
- למידה
- לֵגִיטִימִיוּת
- הפקת לקחים
- אהבה
- מכונה
- חוֹמֶר
- עניינים
- מודל
- מודלים
- ניטור
- יותר
- צרכי
- להפעיל
- הזדמנויות
- להזמין
- ארגון
- ארגונים
- אחר
- להשתתף
- אֲנָשִׁים
- פרספקטיבה
- נקודות מבט
- פלטפורמה
- אפשרות
- פוטנציאל
- חזק
- תהליך
- לייצר
- הפקה
- פּרוֹיֶקט
- הבטחה
- לקדם
- מוּגָן
- מתן
- ציבורי
- הוצאה לאור
- RE
- לְהַגִיעַ
- עולם אמיתי
- ממליץ
- להפחית
- בדבר
- לשחרר
- מייצג
- דורש
- מחקר
- אחראי
- הסיכון
- סיכונים
- בטוח יותר
- בְּטִיחוּת
- אבטחה
- סט
- כמה
- שיתוף
- משמעותי
- חֶברָתִי
- חֶברָה
- כמה
- דואר זבל
- במיוחד
- תקנים
- מדינה
- הצהרה
- אסטרטגיות
- אִסטרָטֶגִיָה
- לספק
- שרשרת אספקה
- מערכות
- נטילת
- לדבר
- טכניקות
- טכנולוגיה
- מונחים
- השמיים
- דרך
- זמן
- לגעת
- לקראת
- הדרכה
- עדכון
- להשתמש
- מקרים לשימוש
- משתמשים
- ספקים
- VOICES
- ברוך הבא
- בזמן
- מי
- נָפוֹץ
- בתוך
- תיק עבודות
- עבד
- עובד
- עוֹלָם
- היה