Adressera felaktiga ras- och etnicitetsdata i medicinsk AI

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Den felaktiga ras- och etnicitetsdata som finns i elektroniska hälsojournaler (EHRS) kan påverka patientvården negativt eftersom artificiell intelligens (AI) blir alltmer integrerad i vården. Eftersom sjukhus och leverantörer samlar in sådan data inkonsekvent och kämpar för att korrekt klassificera enskilda patienter, kan AI-system som tränas på dessa datamängder ärva och vidmakthålla rasfördomar. I en ny publikation i PLOS Digital Health efterlyser bioetik och juridiska experter omedelbar standardisering av metoder för insamling av ras- och etnisk data och för utvecklare att garantera kvaliteten på ras- och etnisk data i medicinska AI-system. …

Adressera felaktiga ras- och etnicitetsdata i medicinsk AI

Den felaktiga ras- och etnicitetsdata som finns i elektroniska hälsojournaler (EHRS) kan påverka patientvården negativt eftersom artificiell intelligens (AI) blir alltmer integrerad i vården. Eftersom sjukhus och leverantörer samlar in sådan data inkonsekvent och kämpar för att korrekt klassificera enskilda patienter, kan AI-system som tränas på dessa datamängder ärva och vidmakthålla rasfördomar.

I en ny publikation i PLOS Digital Health efterlyser bioetik och juridiska experter omedelbar standardisering av metoder för insamling av ras- och etnisk data och för utvecklare att garantera kvaliteten på ras- och etnisk data i medicinska AI-system. Forskningen syntetiserar farhågor om varför patientras data i EPJ inte är korrekt, identifierar bästa praxis för hälsosystem och medicinska AI-forskare för att förbättra datanoggrannheten och tillhandahåller en ny mall för medicinska AI-utvecklare för att på ett transparent sätt motivera kvaliteten på deras ras- och etniska data

Huvudförfattaren Alexandra Tsalidis, MBE, noterar att "AI-utvecklare som följer vår rekommendation om hur deras ras- och etniska data samlades in kommer inte bara att främja transparensen i medicinsk AI, utan också hjälpa patienter och tillsynsmyndigheter att bedöma säkerheten för verktygen."

Rasbias i AI-modeller är ett stort problem eftersom tekniken blir alltmer integrerad i vården. Den här artikeln ger en konkret metod som kan implementeras för att hantera dessa problem. "

Francis Shen, JD, PhD, senior författare

Medan mer arbete behöver göras, erbjuder artikeln en utgångspunkt, som föreslås av medförfattaren Lakshmi Bharadwaj, MBE. "En öppen dialog om bästa praxis är ett viktigt steg, och de tillvägagångssätt som vi föreslår kan uppnå betydande förbättringar."

Forskningen stöddes av NIH Bridge to Artificial Intelligence-programmet (BRIDG2AI) och av ett NIH Brain Neuroethics-anslag (R01MH134144).


Källor:

Journal reference:

Tsalidis, A., Bharadwaj, L., & Shen, F. X. (2025). Standardisering och noggrannhet av ras- och etnicitetsdata: Equity implikationer för medicinsk AI. PLOS Digital Health. doi.org/10.1371/journal.pdig.0000807.