“健康公平:算法和数据如何减轻而不是加剧危害?” 美国科学促进会小组回顾

“健康公平:算法和数据如何减轻而不是加剧危害?” 美国科学促进会小组回顾

“健康公平:算法和数据如何减轻而不是加剧危害?” AAAS 小组回顾 PlatoBlockchain 数据智能。 垂直搜索。 人工智能。一个人的健康是一个非常私人的话题,去看医生可能是一种令人生畏和压力很大的经历。 对于属于医疗系统历史上失败的群体的人来说尤其如此。 医疗保健系统中的这些结构性问题已经渗透到越来越多地用于患者诊断和治疗的算法中。 CCC 组织了一个小组,“健康公平:算法和数据如何减轻而不是加剧危害?” 解决了这些问题。 小组成员是 Amaka Eneanya 博士(费森尤斯医疗)、Mona Singh 博士(普林斯顿大学)、Melanie Moses 博士(新墨西哥大学)和 Katie Siek 博士(印第安纳大学)。

Eneanya 博士通过讨论方程式如何系统地低估肾病来开始小组讨论几十年来一直在美国黑人中使用。 她解释说,在美国,所有患有肾病的患者都会进行登记。 近几十年来,这种疾病的患病率总体上有所增加,对于黑人来说,这种情况往往更加普遍和严重。 

Eneanya 博士概述了慢性肾脏病 (CKD) 风险因素和结果中的这些种族/族裔差异(Eneanya ND 等人。 自然启蒙H。 2021,美国肾脏数据系统。):

  • 与其他种族群体相比,黑人的糖尿病患病率最高 
    • 与白人相比,黑人和西班牙裔人被诊断的年龄更小 
  • 与白人相比,黑人的高血压发病率明显更高 
    • 与白人相比,黑人和西班牙裔人的高血压控制较少
  • 与其他种族群体相比,黑人在开始透析前接受肾脏病学护理的可能性较小 
  • 发生需要透析或肾移植的肾衰竭的风险 
    • 黑人比白人高 4 倍 
    • 西班牙裔比白人高 1.3 倍 
  • 与其他种族群体相比,黑人个体接受肾移植的可能性较小

Eneanya 博士阐述说,结构性种族主义加剧了肾脏相关疾病的不良健康结果(Eneanya ND 等人。 自然启蒙H。 2021 年):

“健康公平:算法和数据如何减轻而不是加剧危害?” AAAS 小组回顾 PlatoBlockchain 数据智能。 垂直搜索。 人工智能。

您能够负担得起的生活习惯——例如您的饮食,以及种族主义和歧视压力等生物影响都会导致身体的新陈代谢发生变化,从而导致肾功能下降。

Eneanya 博士举了一个例子,说明临床医生目前使用的算法如何对现实世界产生影响。 eGFR 方程是一种用于确定患者肾功能强弱程度的算法。 较高的 eGFR 代表较好的肾功能。 患者的 eGFR 水平决定了他们是否有资格接受某些治疗,或许最重要的是,是否有资格接受肾移植。 然而,该算法显示,具有相同年龄、性别和相同肌酐测量值(测量肾功能的血液测试)的黑人和非黑人人具有不同的 eGFR 水平。 该算法计算出黑人比非黑人具有更高的 eGFR,据称具有更好的肾功能。 这限制了他们有资格获得的治疗,并意味着他们需要病情加重才能获得应有的帮助。

Eneanya 博士解释了该算法的历史,该算法揭示了为什么它以这种错误的方式进行计算:1999 年的一项研究将较高的血清肌酐归因于黑人个体,因为错误地假设他们具有较高的肌肉质量。 该研究开发了美国使用的第一个 eGFR 方程,并纳入了一个“黑人种族”乘数因子,该因子导致黑人个体的 eGFR 更高。 eGFR 的使用存在问题,因为临床医生只能根据外表或医疗记录来判断某人的种族(可能将种族列为前任临床医生的遗留假设)。 混血儿也没有区别,也没有对他们进行分类的方法。

Eneanya 博士是一篇文章的作者,该文章通过倡导不将种族纳入估计的方程式改变了医疗保健中 eGFR 的计算方式(Inker LA、Eneanya ND 等人。 “新英格兰医学杂志” 2021 年,德尔加多 C 等人。 2021年日本航空展). Eneanya 博士和她的同事们回到了 1999 年的最初研究,将种族从等式中移除,并用其他输入重新拟合。 如今,美国 ⅓ 的医院和诊所正​​在使用新方程式,器官共享联合网络 (UNOS) 在 2022 年 2023 月特别限制所有移植中心使用基于种族的方程式。他们在 XNUMX 月更进了一步XNUMX 年,并宣布所有美国移植中心都必须审查肾移植候补名单上的所有黑人患者,如果受到基于种族的 eGFR 方程式的影响,则修改他们的候补名单时间。 Eneanya 博士指出,虽然 UNOS 是联邦政府的一部分,但政府并未直接参与禁止使用基于种族的方程式的决定。

除了普遍采用新的 eGFR 方程外,Eneanya 博士还有一些她认为是公平获得肾脏疾病治疗的关键的未来方法:

  • 制定政策和流程以改善获得慢性肾脏病预防保健的机会 
  • 制定政策以增加肾移植的可及性 
  • 调查环境对肾功能和疾病进展的影响(例如压力、歧视)
  • 与患者讨论肾功能测定的透明度(包括 eGFR 方程的局限性)

Eneanya 博士阐述说,梳理关于黑人种族的刻板印象归结为消除没有科学依据的谬论和假新闻。 例如,医学院的课程正在发生变化,以表明没有人类学基础可以证明一个种族的肌肉质量高于另一个种族。 媒体也很好地分享了这个破灭的神话,Eneanya 博士甚至咨询了实习医生格蕾的一集,该集强调了 eGFR 方程对需要肾移植的黑人患者的破坏性影响。

辛格博士继续讨论健康差异,解释说在美国,与白人相比,黑人的癌症死亡率更高。 这一事实表明,医学专业人员和计算研究人员需要面对许多挑战,但也有很多机会开发不会扩大现有差距的方法。 

辛格博士首先解释了癌症的生物学原理:“癌症是一种疾病,我们自身的细胞发生突变,使其无法控制地生长。 因此,如果我们想了解任何一个人癌症的分子基础,我们可以查看他或她的癌细胞和他或她的非癌细胞的基因组,并进行测序。 一旦我们对正常细胞和癌细胞进行了测序,我们就可以比较基因组,并揭示我们在癌细胞中获得了哪些突变,这可能会提示我们哪些改变可能与该个体的癌症相关。 这正是过去 15 年左右所做的事情,对数以万计的个体的肿瘤进行了测序,并确定了其中的突变。”

几乎每个人都认识被诊断出患有癌症的人,并且没有万能的治愈方法。 然而,Singh 博士接下来讨论了精准肿瘤学的前景,即科学家对患者的肿瘤进行测序,识别他们的 DNA 突变并进行计算分析以确定可以针对哪些改变。 免疫疗法是一种利用人体自身免疫系统来靶向肿瘤的方法。 一种有前途的免疫疗法是设计针对每个人的个性化疫苗,这些疫苗会引起对其肿瘤的免疫反应。

Singh 博士解释说,这是因为我们的每个免疫系统都有 6 个不同的经典主要组织相容性复合体 (MHC) I 类基因拷贝。 这些基因有超过 13,000 种不同的 MHC 变体,因此每个人都有一组不同的 MHC 基因。 癌细胞内的一些突变会产生“外来”蛋白质,其中一些可以与个体的 MHC 结合。 这些与癌症衍生蛋白片段结合的 MHC 复合物被免疫细胞识别并可以激活免疫反应。 这是高度个性化的,因为每个人的肿瘤可能有不同的突变,每个人都有不同的 MHC。 科学家们正在使用机器学习来预测哪些 MHC 变体与哪些肽结合,这有望提高免疫疗法的疗效,并最终导致个性化新抗原疫苗的设计。

Singh 博士解释说,MHC 基因的多样性在全球范围内差异很大。 大多数 MHC 等位基因没有与其相关的结合数据,而那些确实有关于其结合数据的基因偏向于某些种族群体。 在测试数据集时,重要的是不仅要关注整体性能,还要考虑数据的子群体,以便每个人都能平等地获得这项研究的潜在好处。

在应用之前必须分析训练集的偏差。 此外,估计未见数据性能的方法可以揭示训练数据的偏差。 以无偏见的方式收集数据对于限制以后使用算法时出现偏见的机会至关重要。 关于该主题的未来工作领域侧重于替代培训程序和目标数据收集的算法策略。 总的来说,至关重要的是优先发展公平的精准医学方法,以便下游的治疗和研究是公平的。

Moses 博士接下来发言,她将 eGFR 和 MHC 肽结合算法如何融入一个更大的生态系统,即医学算法如何影响社会结果。 她解释说,科学家们使用算法和人工智能来预测我们关心的结果,这些结果可以很容易地衡量,而这些代理可能是不准确的。 使医学算法变得更加复杂的是,它们不断以不可预测的方式相互影响,因此通常不清楚用于诊断患者的算法的全部范围。 因此,谨慎使用算法至关重要,尤其是因为当算法失败时,它们可能对最脆弱的人造成最大伤害。

弄清楚算法会影响谁以及为什么是医疗公平的重要组成部分。 摩西博士退后一步,定义公平。 常见图形 用于区分公平与平等,具有 3 种不同身高的人都在努力观看棒球比赛并以不同的方式支持他们,即使在消除障碍的第三个图像中也是有缺陷的,因为它表明这个人有一些与生俱来的东西为什么他们需要支持而不是社会原因可能首先导致不平等。

摩西博士展示了另一种图表来定义在存在系统性不公正的社会中公平的样子(Nicolás E. Barceló 和 Sonya Shadravan(艺术家:Aria Ghalili)版权所有 2020):

“健康公平:算法和数据如何减轻而不是加剧危害?” AAAS 小组回顾 PlatoBlockchain 数据智能。 垂直搜索。 人工智能。

这张图显示,并不是每个人都能从障碍被移除中获益,但为了实现公平,需要解决一些根深蒂固的问题。

摩西博士认为,计算科学家应该始终牢记这一重要背景。 通常很难确定算法创建过程中存在的假设,即使使用最直接的算法也是如此。 使用统计相关性来预测结果并假定相关性等于因果关系也很容易,但这是一个谬论。

摩西博士继续举例说明当今社会在其他领域使用的不公平算法。 例如,刑事司法系统中的算法取代了审前拘留的保释金。 目的是使该过程成为一种数据驱动的、公正的方法,以拘留那些有危险或高风险而不能出庭受审的人。 然而,这些算法在算法做出公平和准确预测的能力以及算法所属系统的偏差方面都有许多缺点,包括有偏差的输入和有偏差的输出解释。 种族偏见如何通过算法在刑事司法系统中长期存在的另一个例子是面部识别软件。 虽然面部识别已被证明在识别肤色较深的女性面孔方面最不准确,但这些算法最常误认的是黑人男性面孔,导致错误逮捕。 这表明,由于刑事司法系统中的偏见,在准确分类方面对一个群体(黑人女性)影响最大的偏见如何对另一群体(黑人男性)产生最大影响

算法会加剧人为偏见,如果它们不能强化您在不咨询算法的情况下本应做出的判断,也可能会被忽略。 这在医学中的有偏见的算法中也是如此。 例如,脉搏血氧仪在检测深色皮肤中的氧气水平时不太准确,这可能导致对严重 COVID 等呼吸系统疾病的漏诊。 用花在医疗保健上的钱来衡量一个人的健康程度是另一种不公平的衡量标准。 Eneanya 博士和 Singh 博士描述的例子、eGFR 肾脏贴现了非裔美国人的肾损伤,以及过度代表欧洲血统的基因组数据集,是医学中有偏见的算法的其他突出例子,它们对受影响的人产生危险的下游后果。 eGFR 方程用于确定在 COVID 期间病情严重到可以出狱的囚犯,这导致一名非洲裔美国男子因肾功能被高估而被拒绝释放。

反馈可以改进算法,或加剧它们的危害。 算法不是单行道,因为它们旨在根据数据预测行为,而一年的预测会影响下一年的数据。 算法应该旨在随着时间的推移减少偏差; 例如,保释听证会应该帮助被告出庭受审,而不是预测失败; 警务工作的目标应该是减少犯罪和错误逮捕。 跨领域使用的算法永远不应该是一成不变的,因为人、算法和社会背景之间会有反馈。

Moses 博士还提出了额外的前进道路:消除数据集中的偏见、质疑假设、扭转(而不是强化)系统偏见、从不同的角度进行评估、要求透明和可解释的算法,以及使用渐进的、自适应的部署。 普遍的看法是算法以某种方式消除了偏见,但实际上它们经常将偏见编纂成法典,我们需要警惕算法及其结果。

小组讨论的最后一部分是问答环节。 主持人 Siek 博士在会议开始时问道:“算法和数据如何才能不加剧伤害?”

  • Eneanya 博士:如果研究人员在寻找算法中的差异化因素时停在种族问题上,那是懒惰的,在科学上是无效的。 从基因上讲,人类在种族之间看起来比在种族内部更相似。 更重要的是要考虑实际影响人体系统(如肾脏)的生物学特性。 例如,在测试脉搏血氧仪时,研究人员应该咨询皮肤科医生,根据不同肤色测试和验证脉搏血氧仪,而不是针对不同肤色的人使用一种设备。
  • Moses 博士:我们应该在算法投入使用后使用相同的方法来验证它们。 将种族视为一种社会建构,可以注意到种族盲法研究的影响。 重要的是要寻找群体之间的区别,以确定算法正在加强的潜在差异。 必须评估算法是否正在最小化问题,或者让它变得更好?
  • Singh 博士:种族永远不应该用作输入,但它可以用来评估输出的偏差。 如果我们不考虑种族,我们甚至不能说存在健康差异。 收集基因组数据并按祖先分类也是一种有缺陷的方法。 我们必须确保评估方法是否适用于人群。
  • Eneanya 博士:当我们使研究人群多样化时,我们需要摆脱仅仅引入白人或黑人群体的做法。 我们需要查看这些群体中的更多差异,例如社会地位、性别、性取向等因素。我们需要查看整体情况,而不仅仅是基于种族的多样性数据集。
  • 摩西博士:算法正是应该帮助我们做到这一点的工具类型,有很多潜在的计算策略可以提供帮助。
  • Singh 博士:我同意算法在这里发挥着巨大的作用,那么我们如何确定数据收集的优先级? 我们需要非常仔细地考虑如何做到这一点。

一位听众接着问道:“鉴于基于当前带有偏差的数据集开发算法的主要趋势,除了消除数据集中的偏差之外,是否还有其他方法可以抵消算法中的偏差?” 

  • Singh 博士:很难克服数据集中的偏差; 这是一个活跃的研究领域。 样本数据很容易过高或过低。 训练 ML 模型的方法有多种,其总体目标(通常是您试图最小化的函数,通常使用整个数据集)是优化应该是什么样子的。
  • Eneanya 博士:许多医学算法被认为需要包括种族以更精确。但是,人们需要批判性地检查为什么首先要引入种族? 将种族作为变量移除可能不会像您想象的那样改变算法的性能。 在删除诸如种族之类的变量后结果仅发生微小变化时,这是否意味着什么(临床上)?
  • Singh 博士:当你的训练集和你使用它的集非常不同时,这尤其没有任何意义。

Siek 博士向小组成员提出了另一个问题:“如果我们可以重来一遍,我们会做哪些不同的事情?”

  • Eneanya 博士:不应该在评估健康结果差异的原因时停止种族。 例如肌酐水平,我们应该考虑还有什么可以影响肌酐? 我们需要更好的数据集,这需要在社区中建立信任。 这看起来像是提高试验人群的多样性,评估你的研究人员的样子,等等。国家卫生研究院越来越多地需要社区合作伙伴和健康公平专家作为研究团队的一部分。 我们需要改变旧的布景,但也需要在未来建立更好的布景。 我们只能通过尝试重新配置那里的东西来做很多事情。
  • 摩西博士:如果我们重新开始,除了我们能做些什么之外,我喜欢将算法视为社会的镜子。 他们接受了互联网上每个人的培训。 将其用作下一级算法的输入,我们可以确定偏差在哪里、为什么存在以及未来的影响是什么。 我们需要问如何使用这些定量工具来弄清楚如何解决这些情况而不是加剧它们。
  • 辛格博士:许多已收集的基因组并不代表整个人口。 我们需要从不同人群的参与开始。

听众的最后一个问题是:“在我们拥有全人类的完整基因组图之前,人们将热衷于使用 ML 和算法。 在同行评审层面,我们现在可以做哪些真实的事情,这样我们就不必在 30 年内修复它们?”

  • Eneanya 博士:完美是善的敌人。 我们必须尽我们所能。 我们可以识别偏见,然后尽我们所能向前迈进。 存在与临床算法无关的障碍。 仅仅通过消除种族来修复 eGFR 算法并不能解决肾脏疾病的差异。 在镇压的多变量方面需要做很多工作。
  • 摩西博士:你的工作 [Dr. Eneanya] 已经为所有人重新设计了算法,这正是前进的方向。 我们需要修复系统。 还利用了必须修复的事实; 很容易看出等式中的偏差。 肾脏方程式是一个社会的镜子,这个社会允许以一种几十年来对非裔美国人不利的方式对种族进行编码。 该等式中的偏见是明确和故意的。 未来在更复杂的算法中识别偏差将变得更加困难。

请继续关注另一个 AAAS 2023 CCC 赞助的小组回顾!

时间戳记:

更多来自 CCC 博客