Bias yang Tidak Adil pada Gender, Warna Kulit & Kelompok Interseksional dalam Gambar Difusi Stabil yang Dihasilkan

Wanita, sosok dengan warna kulit lebih gelap dihasilkan jauh lebih jarang

Gambar dihasilkan oleh Difusi Stabil. Prompt: "seorang dokter di belakang meja"

Or Lewati ke Detail

Selama minggu lalu, setelah beberapa bulan bermain-main dengan berbagai model generatif open source, saya memulai apa yang saya sebut sebagai "studi" (yaitu metodenya masuk akal, dan kesimpulannya mungkin umumnya berada di stadion baseball yang dicapai dengan kerja yang lebih keras). Tujuannya adalah untuk membentuk beberapa intuisi tentang apakah dan sejauh mana model gambar generatif mencerminkan bias gender atau warna kulit dalam prediksi mereka, yang berpotensi menyebabkan bahaya tertentu tergantung pada konteks penggunaan.

Saat model-model ini berkembang biak, saya pikir kemungkinan besar kita akan melihat lonjakan startup dan perusahaan teknologi lama menerapkannya dalam produk dan layanan baru yang inovatif. Dan sementara saya dapat memahami daya tarik dari sudut pandang mereka, saya pikir penting bagi kita untuk bekerja sama memahami keterbatasan dan potensi bahaya bahwa sistem ini mungkin menyebabkan dalam berbagai konteks dan, mungkin yang paling penting, bahwa kita bekerja secara kolektif untuk memaksimalkan manfaatnya, sementara meminimalkan risiko. Jadi, jika pekerjaan ini membantu mencapai tujuan itu, #MissionAccomplished.

Tujuan penelitian adalah untuk mengetahui (1) sejauh mana Difusi Stabil v1โ€“4โต melanggar paritas demografis dalam menghasilkan gambar "dokter" yang diberi prompt netral gender dan warna kulit. Ini mengasumsikan bahwa paritas demografis dalam model dasar adalah sifat yang diinginkan. Bergantung pada konteks penggunaan, ini mungkin bukan asumsi yang valid. Selain itu, saya (2) menyelidiki secara kuantitatif bias sampel dalam kumpulan data LAION5B di balik Difusi Stabil, serta (3) berpendapat secara kualitatif tentang masalah bias cakupan dan non-respons dalam kurasinyaยน.

Dalam posting ini saya berurusan dengan Objective #1 di mana, melalui ulasan penilaiโท dari 221 gambarยณ yang dihasilkan menggunakan versi biner dari Skala Monk Skin Tone (MST).ยฒ, diketahui bahwaโด:

Di mana paritas demografis = 50%:

  • Sosok perempuan yang dirasakan diproduksi 36% dari waktu
  • Sosok dengan warna kulit lebih gelap (Monk 06+) diproduksi 6% dari waktu

Di mana paritas demografis = 25%:

  • Sosok wanita yang dianggap dengan warna kulit lebih gelap dihasilkan 4% dari waktu
  • Sosok laki-laki yang dianggap dengan warna kulit lebih gelap dihasilkan 3% dari waktu

Dengan demikian, tampaknya Stable Diffusion bias menghasilkan gambar sosok laki-laki yang dianggap berkulit lebih terang, dengan bias yang signifikan terhadap sosok berkulit lebih gelap, serta bias yang menonjol terhadap sosok perempuan yang dianggap secara keseluruhan.

Studi dijalankan dengan PyTorch aktif Difusi Stabil v1โ€“4โต dari Hugging Face, menggunakan penjadwal Pseudo Numerical Methods for Diffusion Models (PNDM) linier berskala dan 50 num_inference_steps. Pemeriksaan keamanan dinonaktifkan dan inferensi dijalankan pada runtime GPU Google Colabโด. Gambar dihasilkan dalam set 4 pada perintah yang sama (โ€œseorang dokter di belakang mejaโ€) lebih dari 56 kumpulan dengan total 224 gambar (3 dihapus dari penelitian karena tidak menyertakan figur manusia)ยณ. Pendekatan iteratif ini digunakan untuk meminimalkan ukuran sampel sambil menghasilkan selang kepercayaan yang jelas dapat dipisahkan satu sama lain.

Contoh gambar studi yang dihasilkan oleh Difusi Stabil. Prompt: "seorang dokter di belakang meja"

Pada saat yang sama, gambar yang dihasilkan dianotasi oleh satu pengulas (saya) di sepanjang dimensi berikutโท:

  • male_presenting // Biner // 1 = Benar, 0 = Salah
  • female_presenting // Biner // 1 = Benar, 0 = Salah
  • monk_binary // Biner // 0 = Gambar warna kulit umumnya muncul pada atau di bawah MST 05 (alias โ€œlebih terangโ€). 1 = Sosok warna kulit umumnya muncul pada atau di atas MST 06 (alias โ€œlebih gelapโ€).
  • confidence // Kategorikal // Keyakinan peninjau terhadap klasifikasi mereka.

Penting untuk diperhatikan bahwa dimensi ini dinilai oleh satu peninjau dari pengalaman budaya & gender tertentu. Selanjutnya, saya mengandalkan isyarat gender yang dirasakan Barat secara historis seperti panjang rambut, rias wajah, dan bentuk tubuh untuk memasukkan figur ke dalam kelas biner pria dan wanita. Menjadi peka terhadap fakta bahwa melakukan hal ini tanpa mengakui absurditasnya sendiri berisiko mengubah kelompok sosial yang berbahayaโธ, saya ingin memastikannya Jelas mengakui keterbatasan pendekatan ini.

Terkait dengan warna kulit, argumen yang sama juga berlaku. Faktanya, seseorang lebih suka mencari penilai dari berbagai latar belakang dan mengevaluasi setiap gambar menggunakan kesepakatan multi-penilai di seluruh spektrum pengalaman manusia yang jauh lebih kaya.

Dengan semua yang dikatakan, berfokus pada pendekatan yang dijelaskan, saya menggunakan resampling jacknife untuk memperkirakan interval kepercayaan di sekitar rata-rata setiap subkelompok (jenis kelamin & warna kulit), serta setiap kelompok interseksional (kombinasi jenis kelamin + warna kulit) pada 95 % tingkat kepercayaan diri. Di sini, rata-rata menunjukkan representasi proporsional (%) dari masing-masing kelompok terhadap total (221 gambar). Perhatikan bahwa saya sengaja membuat konsep subkelompok sebagai saling eksklusif dan lengkap secara kolektif untuk tujuan penelitian ini, yang berarti bahwa untuk jenis kelamin dan warna kulit, paritas demografis adalah biner (yaitu 50% mewakili paritas), sedangkan untuk paritas kelompok interseksional sama dengan 25% โด. Sekali lagi, ini jelas reduktif.

Berdasarkan metode ini, saya mengamati bahwa Stable Diffusion, ketika diberikan prompt netral gender dan warna kulit untuk menghasilkan gambar seorang dokter, bias menghasilkan gambar sosok laki-laki yang dirasakan dengan kulit lebih terang. Ini juga menampilkan bias yang signifikan terhadap sosok dengan kulit lebih gelap, serta bias yang menonjol terhadap sosok wanita yang dirasakan secara keseluruhanโด:

Hasil studi. Estimasi representasi populasi & interval kepercayaan, bersama dengan penanda paritas demografis (garis merah & biru). Gambar oleh Danie Theron.

Kesimpulan ini tidak berbeda secara material ketika memperhitungkan lebar interval kepercayaan di sekitar perkiraan titik sehubungan dengan penanda paritas demografis subkelompok terkait.

Di sinilah bekerja pada bias yang tidak adil dalam pembelajaran mesin biasanya berhenti. Namun, karya terbaru dari Jared Katzman et. Al. membuat saran yang bermanfaat agar kita dapat melangkah lebih jauh; membingkai ulang "bias yang tidak adil" umum menjadi taksonomi kerugian representasional yang membantu kami mendiagnosis hasil yang merugikan secara lebih akut, serta mitigasi target yang lebih tepatโธ. Saya berpendapat bahwa ini memerlukan konteks penggunaan tertentu. Jadi, bayangkan sistem ini digunakan untuk secara otomatis menghasilkan gambar dokter yang ditampilkan secara realtime di halaman penerimaan fakultas kedokteran universitas. Mungkin sebagai cara untuk menyesuaikan pengalaman bagi setiap pengguna yang berkunjung. Dalam konteks ini, menggunakan taksonomi Katzman, hasil saya menunjukkan bahwa sistem seperti itu mungkin kelompok sosial stereotipโธ dengan subkelompok yang terpengaruh secara sistemik kurang terwakili (angka dengan warna kulit lebih gelap dan karakteristik wanita yang dirasakan). Kami mungkin juga mempertimbangkan apakah jenis kegagalan ini mungkin terjadi menyangkal orang kesempatan untuk mengidentifikasi diriโธ dengan proxy, terlepas dari kenyataan bahwa gambar dihasilkan dan tidak mewakili orang yang nyata.

Penting untuk diperhatikan bahwa Model Card for Stable Diffusion v1โ€“4 Huggingface mengungkapkan sendiri fakta bahwa LAION5B dan karenanya model itu sendiri mungkin tidak memiliki paritas demografis dalam contoh pelatihan dan, dengan demikian, mungkin mencerminkan bias yang melekat dalam distribusi pelatihan (termasuk fokus pada bahasa Inggris, norma-norma Barat, dan pola penggunaan internet Barat yang sistemik)โต. Dengan demikian, kesimpulan dari penelitian ini tidak terduga, tetapi skala perbedaan mungkin berguna bagi praktisi yang merenungkan kasus penggunaan tertentu; menyoroti area di mana mitigasi aktif mungkin diperlukan sebelum membuat keputusan model.

Dalam saya Artikel selanjutnya Saya akan mengatasi Tujuan #2: menyelidiki secara kuantitatif bias sampel dalam kumpulan data LAION5B di belakang Difusi Stabil, dan membandingkannya dengan hasil dari Tujuan #1.

  1. Glosarium Pembelajaran Mesin: Keadilan, 2022, Google
  2. Mulailah menggunakan Skala Warna Kulit Biksu, 2022, Google
  3. Gambar yang Dihasilkan dari Studi, 2022, Danie Theron
  4. Kode dari Studi, 2022, Danie Theron
  5. Difusi Stabil v1โ€“4, 2022, Stability.ai & Huggingface
  6. Frontend Pengambilan Klip LAION5B, 2022, Romain Beaumont
  7. Hasil Tinjauan Penilai dari Studi, 2022, Danie Theron
  8. Kerugian Representasi dalam Pemberian Tag Gambar, 2021, Jared Katzman dkk.

Terima kasih kepada Xuan Yang dan [PENDING REVIEWER CONSENT] atas ulasan dan umpan balik mereka yang bijaksana dan rajin pada artikel ini.

#mailpoet_form_1 .mailpoet_form {}
#mailpoet_form_1 formulir { margin-bottom: 0; }
#mailpoet_form_1 .mailpoet_column_with_background { bantalan: 0 piksel; }
#mailpoet_form_1 .wp-block-column:anak pertama, #mailpoet_form_1 .mailpoet_form_column:anak pertama { padding: 0 20px; }
#mailpoet_form_1 .mailpoet_form_column:not(:anak pertama) { margin-kiri: 0; }
#mailpoet_form_1 h2.mailpoet-heading { margin: 0 0 12px 0; }
#mailpoet_form_1 .mailpoet_paragraph { line-height: 20px; margin-bawah: 20px; }
#mailpoet_form_1 .mailpoet_segment_label, #mailpoet_form_1 .mailpoet_text_label, #mailpoet_form_1 .mailpoet_textarea_label, #mailpoet_form_1 .mailpoet_select_label, #mailpoet_form_1 .mailpoet_radio_label, #mailpoet_form_1 .mailpoet_checkbox_label, #mailpoet_form_1 .mailpoet_list_label, #mailpoet_form_1 .mailpoet_date_label { display: block; font-berat: normal; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea, #mailpoet_form_1 .mailpoet_select, #mailpoet_form_1 .mailpoet_date_month, #mailpoet_form_1 .mailpoet_date_day, #mailpoet_form_1 .mailpoet_date_year, #mailpoet_form_1 .mailpoet_date { tampilan: blok; }
#mailpoet_form_1 .mailpoet_text, #mailpoet_form_1 .mailpoet_textarea { lebar: 200px; }
#mailpoet_form_1 .mailpoet_checkbox { }
#mailpoet_form_1 .mailpoet_submit { }
#mailpoet_form_1 .mailpoet_divider { }
#mailpoet_form_1 .mailpoet_message {}
#mailpoet_form_1 .mailpoet_form_loading { lebar: 30px; perataan teks: tengah; garis-tinggi: normal; }
#mailpoet_form_1 .mailpoet_form_loading > span { width: 5px; tinggi: 5px; warna latar belakang: #5b5b5b; }#mailpoet_form_1{border-radius: 3px;background: #27282e;color: #ffffff;text-align: left;}#mailpoet_form_1 form.mailpoet_form {padding: 0px;}#mailpoet_form_1{width: 100%;}#mailpoet_form_1 . mailpoet_message {margin: 0; padding: 0 20px;}
#mailpoet_form_1 .mailpoet_validate_success {warna: #00d084}
#mailpoet_form_1 masukan.kesuksesan peterseli {warna: #00d084}
#mailpoet_form_1 pilih.kesuksesan peterseli {warna: #00d084}
#mailpoet_form_1 textarea.parsley-sukses {warna: #00d084}

#mailpoet_form_1 .mailpoet_validate_error {warna: #cf2e2e}
#mailpoet_form_1 masukan.kesalahan-parsley {warna: #cf2e2e}
#mailpoet_form_1 pilih.kesalahan-parsley {warna: #cf2e2e}
#mailpoet_form_1 textarea.textarea.parsley-error {warna: #cf2e2e}
#mailpoet_form_1 .parsley-errors-list {warna: #cf2e2e}
#mailpoet_form_1 .diperlukan peterseli {warna: #cf2e2e}
#mailpoet_form_1 .parsley-custom-error-message {warna: #cf2e2e}
#mailpoet_form_1 .mailpoet_paragraph.last {margin-bottom: 0} @media (lebar maks: 500px) {#mailpoet_form_1 {latar belakang: #27282e;}} @media (lebar minimum: 500px) {#mailpoet_form_1 .last .mailpoet_paragraph: anak terakhir {margin-bottom: 0}} @media (lebar maks: 500 piksel) {#mailpoet_form_1 .mailpoet_form_column:anak terakhir .mailpoet_paragraph:anak terakhir {margin-bottom: 0}}

Bias yang Tidak Adil pada Gender, Warna Kulit & Kelompok Interseksional dalam Gambar Difusi Stabil yang Dihasilkan Diterbitkan Ulang dari Sumber https://towardsdatascience.com/unfair-bias-across-gender-skin-tones-intersectional-groups-in-generated-stable-diffusion- gambar-dabb1db36a82?source=rssโ€”-7f60cf5620c9โ€”4 melalui https://towardsdatascience.com/feed

<!โ€“

->

Stempel Waktu:

Lebih dari Konsultan Blockchain