解决医疗人工智能中不准确的种族和民族数据

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

随着人工智能 (AI) 越来越多地融入医疗保健,电子健康记录 (EHRS) 中发现的种族和民族数据不准确可能会对患者护理产生负面影响。由于医院和医疗服务提供者收集的此类数据不一致,并且难以准确对个体患者进行分类,因此在这些数据集上训练的人工智能系统可能会继承并延续种族偏见。在 PLOS Digital Health 的一篇新出版物中,生物伦理学和法律专家呼吁立即标准化收集种族和民族数据的方法,并要求开发人员保证医疗人工智能系统中种族和民族数据的质量。 ……

解决医疗人工智能中不准确的种族和民族数据

随着人工智能 (AI) 越来越多地融入医疗保健,电子健康记录 (EHRS) 中发现的种族和民族数据不准确可能会对患者护理产生负面影响。由于医院和医疗服务提供者收集的此类数据不一致,并且难以准确对个体患者进行分类,因此在这些数据集上训练的人工智能系统可能会继承并延续种族偏见。

在 PLOS Digital Health 的一篇新出版物中,生物伦理学和法律专家呼吁立即标准化收集种族和民族数据的方法,并要求开发人员保证医疗人工智能系统中种族和民族数据的质量。该研究综合了为什么 EHR 中的患者种族数据可能不准确的担忧,确定了卫生系统和医疗人工智能研究人员提高数据准确性的最佳实践,并为医疗人工智能开发人员提供了一个新模板,以透明地证明其种族和民族数据的质量

主要作者 Alexandra Tsalidis(MBE)指出,“人工智能开发人员听取我们关于如何收集其种族和族裔数据的建议,不仅会提高医疗人工智能的透明度,还会帮助患者和监管机构评估这些工具的安全性。”

随着人工智能技术越来越多地融入医疗保健领域,人工智能模型中的种族偏见是一个主要问题。本文提供了一种可以解决这些问题的具体方法。 “

Francis Shen,法学博士,博士,资深作者

虽然还需要做更多的工作,但本文提供了一个起点,由共同作者 MBE 拉克什米·巴拉德瓦吉 (Lakshmi Bharadwaj) 提出。 “关于最佳实践的公开对话是至关重要的一步,我们提出的方法可以实现重大改进。”

该研究得到了 NIH 人工智能桥梁计划 (BRIDG2AI) 和 NIH 脑神经伦理学拨款 (R01MH134144) 的支持。


资料来源:

Journal reference:

Tsalidis, A.、Bharadwaj, L. 和 Shen, F. X. (2025)。种族和民族数据的标准化和准确性:对医疗人工智能的公平影响。 PLOS 数字健康doi.org/10.1371/journal.pdig.0000807