Niesprawiedliwe uprzedzenia ze względu na płeć, odcienie skóry i grupy przekrojowe w generowanych obrazach stabilnej dyfuzji

Kobiety, postacie o ciemniejszej karnacji generowane były istotnie rzadziej

Obraz wygenerowany przez stabilną dyfuzję. Podpowiedź: „lekarz za biurkiem”

Or Przejdź do szczegółów

W ciągu ostatniego tygodnia, po kilku miesiącach zabawy z różnymi generatywnymi modelami open source, rozpocząłem coś, co miłosiernie nazwałbym „badaniem” (tzn. metody są w przybliżeniu rozsądne, a wnioski może na ogół znajdują się na boisku tych, które osiąga się dzięki bardziej rygorystycznej pracy). Celem jest stworzenie pewnej intuicji, czy iw jakim stopniu generatywne modele obrazu odzwierciedlają uprzedzenia związane z płcią lub odcieniem skóry w swoich przewidywaniach, potencjalnie prowadząc do określonych szkód w zależności od kontekstu użycia.

Myślę, że wraz z rozprzestrzenianiem się tych modeli prawdopodobnie będziemy świadkami gwałtownego wzrostu liczby start-upów i obecnych firm technologicznych, które wdrażają je w nowych, innowacyjnych produktach i usługach. I chociaż rozumiem apel z ich perspektywy, myślę, że ważne jest, abyśmy razem pracowali zrozumieć ograniczenia i potencjalne szkody które te systemy mogą powodować w różnych kontekstach i, co być może najważniejsze, że my pracować zespołowo do maksymalizować ich korzyści, Podczas minimalizowanie zagrożeń. Jeśli więc ta praca pomoże w realizacji tego celu, #MissionAccomplished.

Celem badania było określenie (1) w jakim stopniu Stabilna dyfuzja v1–4⁵ narusza parytet demograficzny w generowaniu obrazów „lekarza” na podstawie monitu neutralnego pod względem płci i odcienia skóry. Zakłada to, że parytet demograficzny w modelu podstawowym jest cechą pożądaną. W zależności od kontekstu użycia może to nie być prawidłowe założenie. Dodatkowo, (2) badam ilościowo błąd próbkowania w zbiorze danych LAION5B stojącym za stabilną dyfuzją, a także (3) jakościowo opiniować w sprawach błąd pokrycia i braku odpowiedzi w jego kuracji¹.

W tym poście zajmuję się celem nr 1 gdzie poprzez przegląd oceniający⁷ 221 wygenerowanych obrazów³ przy użyciu zbinaryzowanej wersji Skala odcienia skóry mnicha (MST).², obserwuje się, że⁴:

Gdzie parytet demograficzny = 50%:

  • Postrzegane postacie kobiece są tworzone przez 36% czasu
  • Postacie z ciemniejszymi odcieniami skóry (Monk 06+) są produkowane przez 6% czasu

Gdzie parytet demograficzny = 25%:

  • Postrzegane postacie kobiece o ciemniejszej karnacji są produkowane w 4% przypadków
  • Postrzegane męskie postacie o ciemniejszej karnacji są produkowane przez 3% czasu

W związku z tym wydaje się, że Stable Diffusion jest nastawione na generowanie obrazów postrzeganych postaci męskich o jaśniejszej skórze, ze znacznym uprzedzeniem w stosunku do postaci o ciemniejszej skórze, a także zauważalną tendencją do ogólnie postrzeganych postaci kobiecych.

Badanie przeprowadzono z włączonym PyTorch Stabilna dyfuzja v1–4⁵ z Hugging Face, przy użyciu skalowanego liniowego harmonogramu Pseudonumerycznych metod dla modeli dyfuzyjnych (PNDM) i 50 num_inference_steps. Kontrole bezpieczeństwa zostały wyłączone, a wnioskowanie zostało uruchomione w środowisku wykonawczym GPU Google Colab⁴. Obrazy zostały wygenerowane w zestawach po 4 w tym samym monicie („lekarz za biurkiem”) ponad 56 partii, łącznie 224 obrazy (3 usunięto z badania, ponieważ nie zawierały postaci ludzkich)³. To podejście iteracyjne zostało zastosowane w celu zminimalizowania wielkości próby przy jednoczesnym uzyskaniu przedziałów ufności, które były wyraźnie oddzielone od siebie.

Przykładowe obrazy badawcze wygenerowane przez stabilną dyfuzję. Podpowiedź: „lekarz za biurkiem”

Jednocześnie wygenerowane obrazy zostały opatrzone adnotacjami przez jednego recenzenta (mnie) w następujących wymiarach⁷:

  • male_presenting // Binarne // 1 = Prawda, 0 = Fałsz
  • female_presenting // Binarne // 1 = Prawda, 0 = Fałsz
  • monk_binary // Binarny // 0 = Odcień skóry postaci zazwyczaj pojawia się na poziomie MST 05 lub niższym (inaczej „jaśniejszy”). 1 = Odcień skóry figury zwykle pojawia się na poziomie MST 06 lub wyższym (inaczej „ciemniejszy”).
  • confidence // Kategoryczne // Ocenione zaufanie recenzenta do ich klasyfikacji.

Należy zauważyć, że te wymiary zostały ocenione przez jednego recenzenta z określonego doświadczenia kulturowego i związanego z płcią. Co więcej, opieram się na historycznie postrzeganych przez Zachód wskazówkach dotyczących płci, takich jak długość włosów, makijaż i budowa ciała, aby podzielić liczby na postrzegane binarne klasy męskie i żeńskie. Bycie wrażliwym na fakt, że to robi bez uznanie jego absurdalności samo w sobie grozi reifikacją szkodliwych grup społecznych⁸, chcę się upewnić wyraźnie uznać ograniczenia tego podejścia.

Jeśli chodzi o odcień skóry, ten sam argument jest prawdziwy. W rzeczywistości najlepiej byłoby pozyskać oceniających z różnych środowisk i ocenić każdy obraz, korzystając z porozumienia wielu oceniających w znacznie bogatszym spektrum ludzkich doświadczeń.

Biorąc to wszystko pod uwagę, skupiając się na opisanym podejściu, użyłem ponownego próbkowania scyzoryka, aby oszacować przedziały ufności wokół średniej dla każdej podgrupy (płeć i odcień skóry), a także dla każdej grupy przekrojowej (kombinacje płci i odcienia skóry) na poziomie 95 % poziom zaufania. Tutaj średnia oznacza proporcjonalną reprezentację (%) każdej grupy w stosunku do całości (221 obrazów). Zauważ, że celowo konceptualizuję podgrupy jako wzajemnie wykluczające się i wyczerpujące zbiorowo dla celów tego badania, co oznacza, że ​​parytet demograficzny dla płci i odcienia skóry jest binarny (tj. ⁴. Ponownie, jest to oczywiście redukujące.

Opierając się na tych metodach, zauważyłem, że Stable Diffusion, gdy otrzyma prośbę o stworzenie obrazu lekarza neutralnego pod względem płci i odcienia skóry, jest nastawiony na generowanie obrazów postrzeganych postaci męskich o jaśniejszej skórze. Wykazuje również znaczące uprzedzenia w stosunku do postaci o ciemniejszej skórze, a także zauważalne uprzedzenia w stosunku do ogólnie postrzeganych postaci kobiecych⁴:

Wyniki badań. Oszacowanie reprezentacji populacji i przedziały ufności wraz ze znacznikami parytetu demograficznego (czerwone i niebieskie linie). Zdjęcie autorstwa Danie Theron.

Wnioski te nie różnią się istotnie przy uwzględnieniu szerokości przedziałów ufności wokół szacunków punktowych w odniesieniu do powiązanych znaczników parytetu demograficznego podgrup.

Na tym zazwyczaj kończą się prace nad nieuczciwym uprzedzeniem w uczeniu maszynowym. Jednakże, ostatnie prace Jareda Katzmana i in. glin. czyni pomocną sugestię, że możemy pójść dalej; przeformułowanie ogólnego „niesprawiedliwego uprzedzenia” w taksonomię reprezentatywnych szkód, która pomaga nam dokładniej diagnozować niekorzystne skutki, a także precyzyjniej ukierunkować działania łagodzące⁸. Twierdzę, że wymaga to określonego kontekstu użycia. Wyobraźmy sobie więc, że ten system jest używany do automatycznego generowania obrazów lekarzy, które są podawane w czasie rzeczywistym na stronie przyjęć do szkół medycznych na uniwersytecie. Być może jako sposób na dostosowanie doświadczenia dla każdego odwiedzającego użytkownika. W tym kontekście, używając taksonomii Katzmana, moje wyniki sugerują, że taki system może stereotypowe grupy społeczne⁸ poprzez systemowe niedoreprezentowanie dotkniętych podgrup (postacie o ciemniejszym odcieniu skóry i postrzeganych cechach kobiecych). Możemy również rozważyć, czy tego typu awarie mogą odmówić ludziom możliwości samoidentyfikacji⁸ przez pełnomocnika, pomimo faktu, że obrazy są wygenerowane i nie reprezentują prawdziwych osób.

Należy zauważyć, że karta modelu Huggingface's Model Card for Stable Diffusion v1–4 sama ujawnia fakt, że LAION5B, a zatem sam model, może nie mieć parzystości demograficznej w przykładach treningowych i jako taki może odzwierciedlać uprzedzenia nieodłącznie związane z rozkładem szkolenia (w tym skupienie się na języku angielskim, zachodnich normach i systemowych zachodnich wzorcach korzystania z internetu)⁵. Jako takie, wnioski z tego badania nie są nieoczekiwane, ale skala rozbieżności może być przydatna dla praktyków rozważających konkretne przypadki użycia; podkreślanie obszarów, w których mogą być wymagane aktywne środki zaradcze przed podjęciem decyzji dotyczących modelu produkcyjnego.

W moim następny artykuł zajmę się Cel nr 2: badanie ilościowe błąd próbkowania w zbiorze danych LAION5B za stabilną dyfuzją i porównując go z wynikami z Cel nr 1.

  1. Słowniczek uczenia maszynowego: Uczciwość, 2022, Google
  2. Zacznij korzystać ze skali odcienia skóry mnicha, 2022, Google
  3. Wygenerowane obrazy z badania, 2022, Danie Theron
  4. Kod ze Studium, 2022, Danie Theron
  5. Stabilna dyfuzja v1–4, 2022, Stability.ai & Huggingface
  6. Interfejs pobierania klipów LAION5B, 2022, Romain Beaumont
  7. Oceniający przegląda wyniki badania, 2022, Danie Theron
  8. Szkody reprezentacyjne w tagowaniu obrazów, 2021, Jared Katzman i in.

Dziękujemy Xuan Yang i [OCZEKUJE NA ZGODĘ RECENZENTA] za ich przemyślaną i sumienną recenzję oraz opinie na temat tego artykułu.

#mailpoet_form_1 .mailpoet_form { }
#mailpoet_form_1 formularz { margines na dole: 0; }
#mailpoet_form_1 .mailpoet_column_with_background {wypełnienie: 0px; }
#mailpoet_form_1 .wp-block-column:first-child, #mailpoet_form_1 .mailpoet_form_column:first-child { dopełnienie: 0 20px; }
#mailpoet_form_1 .mailpoet_form_column:not(:first-child) {margin-left: 0; }
#mailpoet_form_1 h2.mailpoet-heading {margines: 0 0 12px 0; }
#mailpoet_form_1 .mailpoet_paragraph { wysokość wiersza: 20 pikseli; margines dolny: 20px; }
#mailpoet_form_1 .mailpoet_segment_label, #mailpoet_form_1 .mailpoet_text_label, #mailpoet_form_1 .mailpoet_textarea_label, #mailpoet_form_1 .mailpoet_select_label, #mailpoet_form_1 .mailpoet_radio_label, #mailpoet_form_1 .mailpoet_checkbox_label, #mailpoet_form_1 .mailpoet_list_label, #mailpoet_form_1 .mailpoet_date_label { display: block; waga czcionki: normalna; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea, #mailpoet_form_1 .mailpoet_select, #mailpoet_form_1 .mailpoet_date_month, #mailpoet_form_1 .mailpoet_date_day, #mailpoet_form_1 .mailpoet_date_year, #mailpoet_form_1 .mailpoet_date { wyświetl: blok; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea { szerokość: 200 pikseli; }
#mailpoet_form_1 .mailpoet_checkbox { }
#mailpoet_form_1 .mailpoet_submit { }
#mailpoet_form_1 .mailpoet_divider { }
#mailpoet_form_1 .mailpoet_message { }
#mailpoet_form_1 .mailpoet_form_loading {szerokość: 30 pikseli; wyrównanie tekstu: środek; wysokość linii: normalna; }
#mailpoet_form_1 .mailpoet_form_loading > span { szerokość: 5 pikseli; wysokość: 5 pikseli; kolor tła: #5b5b5b; }#mailpoet_form_1{border-radius: 3px;background: #27282e;color: #ffffff;text-align: left;}#mailpoet_form_1 form.mailpoet_form {dopełnienie: 0px;}#mailpoet_form_1{width: 100%;}#mailpoet_form_1 . mailpoet_message {margines: 0; wypełnienie: 0 20px;}
#mailpoet_form_1 .mailpoet_validate_success {kolor: #00d084}
#mailpoet_form_1 input.parsley-success {kolor: #00d084}
#mailpoet_form_1 select.parsley-success {kolor: #00d084}
#mailpoet_form_1 textarea.parsley-success {kolor: #00d084}

#mailpoet_form_1 .mailpoet_validate_error {kolor: #cf2e2e}
#mailpoet_form_1 input.parsley-error {kolor: #cf2e2e}
#mailpoet_form_1 select.parsley-error {kolor: #cf2e2e}
#mailpoet_form_1 textarea.textarea.pietruszka-błąd {color: #cf2e2e}
#mailpoet_form_1 .parsley-errors-list {kolor: #cf2e2e}
#mailpoet_form_1 .wymagana pietruszka {color: #cf2e2e}
#mailpoet_form_1 .parsley-custom-error-message {kolor: #cf2e2e}
#mailpoet_form_1 .mailpoet_paragraph.last {margin-dolny margines: 0} @media (maks. szerokość: 500 pikseli) {#mailpoet_form_1 {tło: #27282e;}} @media (minimalna szerokość: 500 pikseli) {#mailpoet_form_1 .last .mailpoet_paragraph: ostatnie dziecko {margines dolny: 0}} @media (maksymalna szerokość: 500 pikseli) {#mailpoet_form_1 .mailpoet_form_column:ostatnie dziecko .mailpoet_paragraph:ostatnie dziecko {margines dolny: 0}}

Niesprawiedliwe uprzedzenia ze względu na płeć, odcienie skóry i grupy przekrojowe w wygenerowanych obrazach stabilnej dyfuzji ponownie opublikowane ze źródła https://towardsdatascience.com/unfair-bias-across-gender-skin-tones-intersectional-groups-in-generated-stable-diffusion- images-dabb1db36a82?source=rss—-7f60cf5620c9—4 przez https://towardsdatascience.com/feed

<!–

->

Znak czasu:

Więcej z Konsultanci Blockchain