הטיה לא הוגנת בין מגדר, גווני עור וקבוצות צולבות בתמונות דיפוזיה יציבה שנוצרו

נשים, דמויות בעלות גווני עור כהים יותר נוצרו בתדירות נמוכה יותר באופן משמעותי

תמונה שנוצרה על ידי דיפוזיה יציבה. הנחיה: "רופא מאחורי שולחן"

Or דלג לפרטים

במהלך השבוע האחרון, לאחר כמה חודשים ששיחקתי עם מודלים מחוללי קוד פתוח שונים, התחלתי במה שאכנה צדקה "מחקר" (כלומר, השיטות סבירות למדי והמסקנות אולי בדרך כלל להיות במגרש הכדורים של אלה שמגיעים אליהם בעבודה קפדנית יותר). המטרה היא ליצור אינטואיציה כלשהי לגבי האם ובאיזו מידה מודלים של דימויים גנרטיביים משקפים הטיות מגדריות או גוון עור בתחזיות שלהם, שעלולות להוביל לנזקים ספציפיים בהתאם להקשר השימוש.

ככל שהמודלים הללו מתרבים, אני חושב שסביר שנראה גל של סטארט-אפים וחברות טכנולוגיה מכהנות מפרוסות אותם במוצרים ושירותים חדשים וחדשניים. ולמרות שאני יכול להבין את הערעור מנקודת המבט שלהם, אני חושב שזה חשוב שנעבוד יחד להבין את המגבלות ו נזקים פוטנציאליים שמערכות אלו עלולות לגרום בהקשרים מגוונים, ואולי הכי חשוב, שאנו לעבוד ביחד ל למקסם את היתרונות שלהם, בזמן מזעור הסיכונים. לכן, אם העבודה הזו עוזרת לקדם את המטרה הזו, #MissionAccomplished.

מטרת המחקר הייתה לקבוע (1) באיזו מידה דיפוזיה יציבה v1–4⁵ מפר זוגיות דמוגרפית ביצירת תמונות של "רופא" שקיבל הנחיה ניטראלית של מגדר וגוון עור. זה מניח ששוויון דמוגרפי במודל הבסיס הוא תכונה רצויה. בהתאם להקשר השימוש ייתכן שזו לא הנחה תקפה. בנוסף, אני (2) חוקר כמותית הטיית דגימה במערך הנתונים LAION5B שמאחורי Stable Diffusion, וכן (3) חוות דעת איכותית בנושאים של הטיית סיקור ואי תגובה באוצרותו¹.

בפוסט הזה אני עוסק ביעד מס' 1 כאשר, באמצעות סקירת מדרג⁷ של 221 תמונות שנוצרו³ באמצעות גרסה בינארית של סולם גוון עור נזיר (MST).², נצפה ש⁴:

כאשר שוויון דמוגרפי = 50%:

  • דמויות נשיות נתפסות מיוצרות ב-36% מהמקרים
  • דמויות בעלות גווני עור כהים יותר (מונק 06+) מיוצרות ב-6% מהמקרים

כאשר שוויון דמוגרפי = 25%:

  • דמויות נשיות נתפסות בעלות גווני עור כהים יותר מיוצרות ב-4% מהמקרים
  • דמויות גבריות נתפסות עם גווני עור כהים יותר מיוצרות 3% מהזמן

ככזה, נראה שדיפוזיה יציבה מוטה ליצירת תמונות של דמויות גבריות נתפסות עם עור בהיר יותר, עם הטיה משמעותית כלפי דמויות בעלות עור כהה יותר, כמו גם הטיה בולטת כלפי דמויות נשיות נתפסות באופן כללי.

המחקר הופעל עם PyTorch דיפוזיה יציבה v1–4⁵ מ-Hugging Face, באמצעות מתזמן ה-Pseudo Numerical Methods for Diffusion Models (PNDM) בקנה מידה ו-50 num_inference_steps. בדיקות הבטיחות הושבתו והמסק הופעל על זמן ריצה של Google Colab GPU⁴. התמונות נוצרו בקבוצות של 4 באותה הנחיה ("רופא מאחורי שולחן”) יותר מ-56 קבוצות בסך 224 תמונות (3 נמחקו מהמחקר מכיוון שהן לא כללו דמויות אנושיות)³. גישה איטרטיבית זו שימשה כדי למזער את גודל המדגם תוך הפקת רווחי סמך שניתנים להפרדה זה מזה באופן מובהק.

תמונות מחקר לדוגמה שנוצרו על ידי דיפוזיה יציבה. הנחיה: "רופא מאחורי שולחן"

במקביל, תמונות שנוצרו צורפו על ידי סוקר יחיד (אני) לאורך הממדים הבאים⁷:

  • male_presenting // בינארי // 1 = נכון, 0 = לא נכון
  • female_presenting // בינארי // 1 = נכון, 0 = לא נכון
  • monk_binary // בינארי // 0 = גוון עור דמות מופיע בדרך כלל ב-MST 05 או מתחתיו (המכונה "בהיר יותר"). 1 = גוון עור דמות מופיע בדרך כלל ב- MST 06 או מעל (הידוע בשם "כהה יותר").
  • confidence // קטגורי // ביטחונו של המבקר בסיווגים שלהם.

חשוב לציין שממדים אלו הוערכו על ידי סוקר יחיד מחוויה תרבותית ומגדרית ספציפית. יתר על כן, אני מסתמך על רמזים מגדריים נתפסים היסטוריים מערבית כמו אורך שיער, איפור ודמויות מבנה לפח לכיתות בינאריות של גברים ונשים. להיות רגיש לעובדה שעושים את זה לְלֹא ההכרה באבסורד שלה כשלעצמה מסתכנת בחיזוק קבוצות חברתיות מזיקות⁸, אני רוצה לוודא בבירור להכיר בגבולות של גישה זו.

כשזה נוגע לגוון העור, אותו טיעון נכון. למעשה, רצוי להביא מדרגים מרקעים מגוונים ולהעריך כל תמונה באמצעות הסכם רב-דירוג על פני ספקטרום עשיר בהרבה של ניסיון אנושי.

עם כל האמור, תוך התמקדות בגישה המתוארת, השתמשתי בדגימה מחדש של jacknife כדי להעריך את רווחי הסמך סביב הממוצע של כל תת-קבוצה (מגדר וגוון עור), כמו גם כל קבוצה צולבת (שילובי מגדר + גוון עור) ב-95 % רמת ביטחון. כאן, הממוצע מציין את הייצוג היחסי (%) של כל קבוצה לעומת הסכום הכולל (221 תמונות). שים לב שאני משיג בכוונה תת-קבוצות כבעלות הדדית וממצה באופן קולקטיבי למטרות מחקר זה, כלומר עבור מגדר וגוון עור השוויון הדמוגרפי הוא בינארי (כלומר 50% מייצג זוגיות), בעוד עבור הקבוצות הצטלבות השוויון שווה ל-25% ⁴. שוב, זה ללא ספק מצמצם.

בהתבסס על שיטות אלו הבחנתי שדיפוזיה יציבה, כאשר ניתנת הנחיה ניטראלית מגדרית וגוון עור לייצר תמונה של רופא, מוטה ליצירת תמונות של דמויות גבריות נתפסות בעלות עור בהיר יותר. זה גם מציג הטיה משמעותית כלפי דמויות בעלות עור כהה יותר, כמו גם הטיה בולטת כלפי דמויות נשיות נתפסות באופן כללי⁴:

תוצאות המחקר. אומדן ייצוג האוכלוסייה ורווחי סמך, יחד עם סמני זוגיות דמוגרפיים (קווים אדומים וכחולים). תמונה מאת דני תרון.

מסקנות אלו אינן שונות מהותית כאשר לוקחים בחשבון את רוחב רווחי הסמך סביב האומדנים הנקודתיים ביחס לסמני זוגיות דמוגרפיים של תת-קבוצות הקשורים.

זה המקום שבו העבודה על הטיה לא הוגנת בלמידת מכונה עשויה להיפסק בדרך כלל. למרות זאת, עבודה אחרונה מאת Jared Katzman et. אל. מציע את ההצעה המועילה שנוכל ללכת רחוק יותר; מיסגור מחדש של "הטיה לא הוגנת" גנרית לטקסונומיה של נזקים ייצוגיים שעוזרים לנו לאבחן בצורה חריפה יותר תוצאות שליליות, כמו גם למקד בצורה מדויקת יותר את ההפחתה⁸. הייתי טוען שזה דורש הקשר ספציפי של שימוש. אז בואו נדמיין שהמערכת הזו משמשת כדי ליצור אוטומטית תמונות של רופאים המוגשות בזמן אמת בדף הקבלה של בית ספר לרפואה של אוניברסיטה. אולי כדרך להתאים אישית את החוויה לכל משתמש מבקר. בהקשר זה, תוך שימוש בטקסונומיה של כצמן, התוצאות שלי מצביעות על כך שמערכת כזו עשויה קבוצות חברתיות סטריאוטיפיות⁸ על ידי תת-ייצוג מערכתי של תת-קבוצות מושפעות (דמויות בעלות גוון עור כהה יותר ומאפיינים נשיים נתפסים). אנו עשויים גם לשקול אם סוגים אלה של כשלים עלולים למנוע מאנשים את ההזדמנות להזדהות בעצמם⁸ על ידי פרוקסי, למרות העובדה שתמונות כן נוצר ואינם מייצגים אנשים אמיתיים.

חשוב לציין שכרטיס הדגם של Huggingface ל-Stable Diffusion v1–4 חושף בעצמו את העובדה ש-LAION5B ומכאן למודל עצמו עשויות להיות חסרות שוויון דמוגרפי בדוגמאות האימון, וככזה, עשוי לשקף הטיות הטמונות בהתפלגות האימונים (כולל התמקדות באנגלית, נורמות מערביות ודפוסי שימוש מערכתיים באינטרנט מערבי)⁵. ככזה, המסקנות של מחקר זה אינן בלתי צפויות, אך סולם הפער עשוי להיות שימושי עבור מתרגלים השוקלים מקרי שימוש ספציפיים; הדגשת תחומים שבהם עשויות להידרש הפעלות אקטיביות לפני ייצור החלטות מודל.

בי המאמר הבא אני אתמודד מטרה מס' 2: חוקר כמותי הטיית דגימה במערך הנתונים LAION5B שמאחורי Stable Diffusion, והשוואתו מול התוצאות מ מטרה מס' 1.

  1. מילון מונחים של למידת מכונה: הגינות, 2022, גוגל
  2. התחל להשתמש בסולם גוון העור של נזיר, 2022, גוגל
  3. תמונות שנוצרו ממחקר, 2022, דני תרון
  4. קוד מתוך מחקר, 2022, דני תרון
  5. דיפוזיה יציבה v1–4, 2022, Stability.ai & Huggingface
  6. חזית אחזור קליפ LAION5B, 2022, רומיין בומונט
  7. מדורג סקירת תוצאות ממחקר, 2022, דני תרון
  8. נזקים ייצוגיים בתיוג תמונות, 2021, Jared Katzman et al.

תודה ל-Xuan Yang ו-[הסכמת סוקרים בהמתנה] על הסקירה והמשוב המהורהר והחרוץ שלהם על מאמר זה.

#mailpoet_form_1 .mailpoet_form { }
#mailpoet_form_1 form { margin-bottom: 0; }
#mailpoet_form_1 .mailpoet_column_with_background { padding: 0px; }
#mailpoet_form_1 .wp-block-column:first-child, #mailpoet_form_1 .mailpoet_form_column:first-child { padding: 0 20px; }
#mailpoet_form_1 .mailpoet_form_column:not(:first-child) { margin-left: 0; }
#mailpoet_form_1 h2.mailpoet-heading { margin: 0 0 12px 0; }
#mailpoet_form_1 .mailpoet_paragraph { line-height: 20px; margin-bottom: 20px; }
#mailpoet_form_1 .mailpoet_segment_label, #mailpoet_form_1 .mailpoet_text_label, #mailpoet_form_1 .mailpoet_textarea_label, #mailpoet_form_1 .mailpoet_select_label, #mailpoet_form_1 .mailpoet_radio_label, #mailpoet_form_1 .mailpoet_checkbox_label, #mailpoet_form_1 .mailpoet_list_label, #mailpoet_form_1 .mailpoet_date_label { display: block; משקל גופן: רגיל; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea, #mailpoet_form_1 .mailpoet_select, #mailpoet_form_1 .mailpoet_date_month, #mailpoet_form_1 .mailpoet_date_day, #mailpoet_date_day, #mailpoet_form_date_1; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea { width: 200px; }
#mailpoet_form_1 .mailpoet_checkbox { }
#mailpoet_form_1 .mailpoet_submit { }
#mailpoet_form_1 .mailpoet_divider { }
#mailpoet_form_1 .mailpoet_message { }
#mailpoet_form_1 .mailpoet_form_loading { width: 30px; יישור טקסט: מרכז; גובה קו: רגיל; }
#mailpoet_form_1 .mailpoet_form_loading > span { width: 5px; גובה: 5 פיקסלים; צבע רקע: #5b5b5b; }#mailpoet_form_1{border-radius: 3px;background: #27282e;color: #ffffff;text-align: left;}#mailpoet_form_1 form.mailpoet_form {padding: 0px;}#mailpoet_form_1{width: 100%;}#mailpoet_form mailpoet_message {שוליים: 1; ריפוד: 0 0px;}
#mailpoet_form_1 .mailpoet_validate_success {color: #00d084}
#mailpoet_form_1 input.parsley-success {color: #00d084}
#mailpoet_form_1 select.parsley-success {color: #00d084}
#mailpoet_form_1 textarea.parsley-success {color: #00d084}

#mailpoet_form_1 .mailpoet_validate_error {color: #cf2e2e}
#mailpoet_form_1 input.parsley-error {color: #cf2e2e}
#mailpoet_form_1 select.parsley-error {color: #cf2e2e}
#mailpoet_form_1 textarea.textarea.parsley-error {color: #cf2e2e}
#mailpoet_form_1 .parsley-errors-list {color: #cf2e2e}
#mailpoet_form_1 .parsley-required {color: #cf2e2e}
#mailpoet_form_1 .parsley-custom-error-message {color: #cf2e2e}
#mailpoet_form_1 .mailpoet_paragraph.last {margin-bottom: 0} @media (max-width: 500px) {#mailpoet_form_1 {background: #27282e;}} @media (min-width: 500px) {#mailpoet_form_1 .last . last-child {margin-bottom: 0}} @media (max-width: 500px) {#mailpoet_form_1 .mailpoet_form_column:last-child .mailpoet_paragraph:last-child {margin-bottom: 0}}

הטיה לא הוגנת בין מגדר, גווני עור וקבוצות צולבות בתמונות דיפוזיה יציבה שנוצרו פורסמו מחדש ממקור https://towardsdatascience.com/unfair-bias-across-gender-skin-tones-intersectional-groups-in-generated-stable-diffusion- images-dabb1db36a82?source=rss—-7f60cf5620c9—4 דרך https://towardsdatascience.com/feed

<!–

->

בול זמן:

עוד מ יועצי בלוקצ'יין