Novērsiet neprecīzos rases un etniskās piederības datus medicīnas AI

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Elektroniskajos veselības ierakstos (EHRS) atrodamās rases un etniskās piederības datu neprecizitāte var negatīvi ietekmēt pacientu aprūpi, jo mākslīgais intelekts (AI) arvien vairāk tiek integrēts veselības aprūpē. Tā kā slimnīcas un pakalpojumu sniedzēji nekonsekventi vāc šādus datus un cīnās, lai precīzi klasificētu atsevišķus pacientus, AI sistēmas, kas apmācītas uz šīm datu kopām, var pārmantot un saglabāt rasu aizspriedumus. Jaunajā PLOS Digital Health publikācijā bioētikas un juridiskie eksperti aicina nekavējoties standartizēt rasu un etnisko datu vākšanas metodes un izstrādātājus garantēt rasu un etnisko datu kvalitāti medicīnas AI sistēmās. …

Novērsiet neprecīzos rases un etniskās piederības datus medicīnas AI

Elektroniskajos veselības ierakstos (EHRS) atrodamās rases un etniskās piederības datu neprecizitāte var negatīvi ietekmēt pacientu aprūpi, jo mākslīgais intelekts (AI) arvien vairāk tiek integrēts veselības aprūpē. Tā kā slimnīcas un pakalpojumu sniedzēji nekonsekventi vāc šādus datus un cīnās, lai precīzi klasificētu atsevišķus pacientus, AI sistēmas, kas apmācītas uz šīm datu kopām, var pārmantot un saglabāt rasu aizspriedumus.

Jaunajā PLOS Digital Health publikācijā bioētikas un juridiskie eksperti aicina nekavējoties standartizēt rasu un etnisko datu vākšanas metodes un izstrādātājus garantēt rasu un etnisko datu kvalitāti medicīnas AI sistēmās. Pētījumā ir apkopotas bažas par to, kāpēc pacientu rasu dati EHR var nebūt precīzi, tiek noteiktas veselības sistēmu un medicīnas AI pētnieku labākās prakses, lai uzlabotu datu precizitāti, un tiek nodrošināta jauna veidne medicīnas AI izstrādātājiem, lai pārredzami pamatotu savu rasu un etnisko datu kvalitāti.

Vadošā autore Alexandra Tsalidis, MBE, atzīmē, ka "AI izstrādātāji ņem vērā mūsu ieteikumu par to, kā tika vākti viņu rasu un etniskie dati, ne tikai veicinās medicīniskā AI pārredzamību, bet arī palīdzēs pacientiem un regulatoriem novērtēt rīku drošību."

Rasu aizspriedumi AI modeļos ir liela problēma, jo tehnoloģija arvien vairāk tiek integrēta veselības aprūpē. Šajā rakstā ir sniegta konkrēta metode, ko var īstenot, lai novērstu šīs problēmas. "

Francis Shen, JD, PhD, vecākais autors

Lai gan ir jāpaveic vairāk darba, raksts piedāvā sākuma punktu, ko ierosināja līdzautors Lakšmi Bharadvajs, MBE. "Atklāts dialogs par labāko praksi ir būtisks solis, un mūsu piedāvātās pieejas varētu panākt ievērojamus uzlabojumus."

Pētījumu atbalstīja NIH tilta uz mākslīgo intelektu programma (BRIDG2AI) un NIH smadzeņu neiroētikas stipendija (R01MH134144).


Avoti:

Journal reference:

Tsalidis, A., Bharadwaj, L. un Shen, F. X. (2025). Rases un etniskās piederības datu standartizācija un precizitāte: vienlīdzības ietekme uz medicīnas AI. PLOS digitālā veselība. doi.org/10.1371/journal.pdig.0000807.