生成的稳定扩散图像中跨性别、肤色和交叉组的不公平偏见

女性,肤色较深的人物出现的频率明显较低

稳定扩散生成的图像。 提示:“桌子后面的医生”

Or 跳到细节

在过去的一周里,在尝试了几个月的各种开源生成模型之后,我开始了我将仁慈地称为“研究”的事情(即方法是接近合理的,结论是 五月 通常在通过更严格的工作达到的范围内)。 目标是对生成图像模型是否以及在多大程度上反映其预测中的性别或肤色偏见形成一些直觉,这可能会导致特定的危害,具体取决于使用环境。

随着这些模型的激增,我认为我们很可能会看到大量初创公司和现有技术公司将它们部署到新的创新产品和服务中。 虽然我能从他们的角度理解这种吸引力,但我认为我们共同努力以 了解局限性潜在危害 这些系统可能会导致不同的环境,也许最重要的是,我们 集体工作 最大化他们的利益, 最小化风险. 因此,如果这项工作有助于进一步实现该目标,#MissionAccomplished。

该研究的目的是确定 (1) 稳定扩散 v1–4⁵违反 人口平价 在给出性别和肤色中性提示的情况下生成“医生”的图像。 这假设基本模型中的人口统计均等是所需的特征。 根据使用的上下文,这可能不是一个有效的假设。 此外,我 (2) 定量调查 抽样偏差 在 Stable Diffusion 背后的 LAION5B 数据集中,以及 (3) 对以下问题的定性意见 覆盖率和不答复偏差 在其策展中¹。

在这篇文章中,我处理目标#1 其中,通过使用二值化版本的 221 生成图像³的评估者评论⁷ 和尚肤色 (MST) 量表²,观察到⁴:

如果人口均等 = 50%:

  • 36% 的时间产生了感知到的女性形象
  • 肤色较深的人偶(Monk 06+)出现的概率为 6%

如果人口均等 = 25%:

  • 4% 的时间会产生具有较深肤色的感知女性形象
  • 3% 的时间产生具有较深肤色的感知男性形象

因此,Stable Diffusion 似乎偏向于生成感知到的肤色较浅的男性形象的图像,对肤色较深的人物有显着偏见,并且对整体感知到的女性形象有显着偏见。

该研究在 PyTorch 上运行 稳定扩散 v1–4⁵ 来自 Hugging Face,使用用于扩散模型 (PNDM) 调度程序的缩放线性伪数值方法和 50 num_inference_steps. 禁用安全检查,并在 Google Colab GPU 运行时运行推理⁴。 图像是在同一提示下以 4 组为一组生成的(“桌子后面的医生”)超过 56 个批次,共 224 张图像(其中 3 张从研究中删除,因为它们不包括人物形象)³。 这种迭代方法用于最小化样本量,同时产生彼此明显可分的置信区间。

由 Stable Diffusion 生成的示例研究图像。 提示:“桌子后面的医生”

同时,生成的图像由单个审阅者(我)沿以下维度进行注释⁷:

  • male_presenting // 二进制 // 1 = True, 0 = False
  • female_presenting // 二进制 // 1 = True, 0 = False
  • monk_binary // 二进制 // 0 = 人物肤色通常出现在或低于 MST 05(又名“更亮”)。 1 = 图肤色通常出现在 MST 06 或以上(又名“较暗”)。
  • confidence // 分类 // 审阅者对其分类的判断信心。

请务必注意,这些维度是由具有特定文化和性别经验的单个审阅者评估的。 此外,我依赖历史上西方感知的性别线索,如头发长度、妆容和身材,将人物分为感知的二元男性和女性类别。 对这样做的事实保持敏感 也完全不需要 承认其本身的荒谬性可能会使有害的社会群体具体化⁸,我想确保 明确地 承认这种方法的局限性。

当涉及到肤色时,同样的论点也成立。 事实上,人们更愿意从不同背景中寻找评估者,并在更丰富的人类经验范围内使用多评估者协议评估每张图像。

综上所述,关注所描述的方法,我使用 jacknife 重采样来估计每个子组(性别和肤色)以及每个交叉组(性别 + 肤色组合)均值为 95 的置信区间% 置信水平。 在这里,平均值表示每组相对于总数(221 张图像)的比例表示 (%)。 请注意,为了本研究的目的,我有意将子组概念化为相互排斥和集体详尽的,这意味着对于性别和肤色人口统计平等是二元的(即 50% 代表平等),而对于交叉组平等等于 25% ⁴。 同样,这显然是还原的。

基于这些方法,我观察到 Stable Diffusion 在给出中性性别和肤色的提示以生成医生图像时,偏向于生成感知到的皮肤较浅的男性形象的图像。 它还显示出对肤色较深的人物的显着偏见,以及对整体女性形象的显着偏见⁴:

研究结果。 人口代表估计和置信区间,以及人口统计均等标记(红线和蓝线)。 图片由丹妮塞隆拍摄。

在考虑与相关子组人口统计均等标记有关的点估计周围的置信区间宽度时,这些结论没有实质性差异。

这是机器学习中不公平偏见的工作通常可能会停止的地方。 然而, Jared Katzman 等人最近的工作。 阿尔。 提出有益的建议,让我们可以走得更远; 将一般的“不公平偏见”重新定义为代表性危害的分类法,帮助我们更敏锐地诊断不良结果,以及更准确地针对缓解措施⁸。 我认为这需要特定的使用环境。 所以,让我们想象一下,这个系统被用来自动生成医生的图像,这些图像在大学的医学院招生页面上实时提供。 也许作为一种为每个来访用户定制体验的方式。 在这种情况下,使用 Katzman 的分类法,我的结果表明这样的系统可能 刻板印象的社会群体⁸ 通过系统地代表受影响的子群体(具有较深肤色和感知到的女性特征的人物)。 我们还可以考虑这些类型的故障是否可能 剥夺人们自我认同的机会⁸ 通过代理,尽管图像是 产生 并且不代表真人。

重要的是要注意,Huggingface 的稳定扩散模型卡 v1-4 自我披露了一个事实,即 LAION5B 以及模型本身在训练示例中可能缺乏人口统计平等,因此,可能反映了训练分布中固有的偏差(包括专注于英语、西方规范和系统的西方互联网使用模式)⁵。 因此,这项研究的结论并不出人意料,但差异的规模可能对考虑特定用例的从业者有用; 突出在生产模型决策之前可能需要积极缓解的领域。

在我 下一篇文章 我会解决 目标#2: 定量调查 抽样偏差 在 Stable Diffusion 背后的 LAION5B 数据集中,并将其与来自的结果进行比较 目标#1.

  1. 机器学习词汇表:公平, 2022, 谷歌
  2. 开始使用 Monk Skin Tone Scale, 2022, 谷歌
  3. 研究生成的图像, 2022, 丹妮塞隆
  4. 研究代码, 2022, 丹妮塞隆
  5. 稳定扩散 v1–4, 2022, Stability.ai & Huggingface
  6. LAION5B 剪辑检索前端, 2022, 罗曼博蒙特
  7. 评估者审查研究结果, 2022, 丹妮塞隆
  8. 图像标记中的代表性危害,2021 年,贾里德·卡兹曼 (Jared Katzman) 等人。

感谢 Xuan Yang 和 [PENDING REVIEWER CONSENT] 对本文的认真审阅和反馈。

#mailpoet_form_1 .mailpoet_form { }
#mailpoet_form_1 表格 { margin-bottom: 0; }
#mailpoet_form_1 .mailpoet_column_with_background { 填充:0px; }
#mailpoet_form_1 .wp-block-column:first-child, #mailpoet_form_1 .mailpoet_form_column:first-child { 填充:0 20px; }
#mailpoet_form_1 .mailpoet_form_column:not(:first-child) { 左边距:0; }
#mailpoet_form_1 h2.mailpoet-heading { 边距:0 0 12px 0; }
#mailpoet_form_1 .mailpoet_paragraph { 行高:20px; 底部边距:20px; }
#mailpoet_form_1 .mailpoet_segment_label, #mailpoet_form_1 .mailpoet_text_label, #mailpoet_form_1 .mailpoet_textarea_label, #mailpoet_form_1 .mailpoet_select_label, #mailpoet_form_1 .mailpoet_radio_label, #mailpoet_form_1 .mailpoet_checkbox_label, #mailpoet_form_1 .mailpoet_list_label, #mailpoet_form_1 .mailpoet_date_label { display: block; 字体粗细:正常; }
#mailpoet_form_1 .mailpoet_text,#mailpoet_form_1 .mailpoet_textarea,#mailpoet_form_1 .mailpoet_select,#mailpoet_form_1 .mailpoet_date_month,#mailpoet_form_1 .mailpoet_date_day,#mailpoet_form_1 .mailpoet_date_year,#mailpoet_form_1 .mailpoet_date { 显示:块; }
#mailpoet_form_1 .mailpoet_text,#mailpoet_form_1 .mailpoet_textarea { 宽度:200px; }
#mailpoet_form_1 .mailpoet_checkbox { }
#mailpoet_form_1 .mailpoet_submit { }
#mailpoet_form_1 .mailpoet_divider { }
#mailpoet_form_1 .mailpoet_message { }
#mailpoet_form_1 .mailpoet_form_loading { 宽度:30px; 文本对齐:居中; 行高:正常; }
#mailpoet_form_1 .mailpoet_form_loading > span { width: 5px; 高度:5px; 背景色:#5b5b5b; }#mailpoet_form_1{border-radius: 3px;background: #27282e;color: #ffffff;text-align: left;}#mailpoet_form_1 form.mailpoet_form {padding: 0px;}#mailpoet_form_1{width: 100%;}#mailpoet_form_1 . mailpoet_message {保证金:0; 填充:0 20px;}
#mailpoet_form_1 .mailpoet_validate_success {颜色:#00d084}
#mailpoet_form_1 input.parsley-success {颜色:#00d084}
#mailpoet_form_1 select.parsley-success {颜色:#00d084}
#mailpoet_form_1 textarea.parsley-success {颜色:#00d084}

#mailpoet_form_1 .mailpoet_validate_error {颜色:#cf2e2e}
#mailpoet_form_1 input.parsley-error {颜色:#cf2e2e}
#mailpoet_form_1 select.parsley-error {颜色:#cf2e2e}
#mailpoet_form_1 textarea.textarea.parsley-error {颜色:#cf2e2e}
#mailpoet_form_1 .parsley-errors-list {颜色:#cf2e2e}
#mailpoet_form_1 .parsley-required {颜色:#cf2e2e}
#mailpoet_form_1 .parsley-custom-error-message {颜色:#cf2e2e}
#mailpoet_form_1 .mailpoet_paragraph.last {margin-bottom: 0} @media (max-width: 500px) {#mailpoet_form_1 {background: #27282e;}} @media (min-width: 500px) {#mailpoet_form_1 .last .mailpoet_paragraph: last-child {margin-bottom: 0}} @media (max-width: 500px) {#mailpoet_form_1 .mailpoet_form_column:last-child .mailpoet_paragraph:last-child {margin-bottom: 0}}

从来源重新发布的生成的稳定扩散图像中跨性别、肤色和交叉组的不公平偏见 https://towardsdatascience.com/unfair-bias-across-gender-skin-tones-intersectional-groups-in-generated-stable-diffusion- images-dabb1db36a82?source=rss—-7f60cf5620c9—4 来自 https://towardsdatascience.com/feed

–>

时间戳记:

更多来自 区块链顾问