Pak onnauwkeurige ras- en etniciteitsgegevens aan in medische AI
De onnauwkeurigheid van gegevens over ras en etniciteit in elektronische medische dossiers (EPRS) kan een negatieve impact hebben op de patiëntenzorg, aangezien kunstmatige intelligentie (AI) steeds meer in de gezondheidszorg wordt geïntegreerd. Omdat ziekenhuizen en zorgverleners dergelijke gegevens inconsistent verzamelen en moeite hebben om individuele patiënten nauwkeurig te classificeren, kunnen AI-systemen die op deze datasets zijn getraind, raciale vooroordelen overnemen en in stand houden. In een nieuwe publicatie in PLOS Digital Health roepen bio-ethiek en juridische experts op tot onmiddellijke standaardisatie van methoden voor het verzamelen van raciale en etnische gegevens en tot ontwikkelaars om de kwaliteit van raciale en etnische gegevens in medische AI-systemen te garanderen. …
Pak onnauwkeurige ras- en etniciteitsgegevens aan in medische AI
De onnauwkeurigheid van gegevens over ras en etniciteit in elektronische medische dossiers (EPRS) kan een negatieve impact hebben op de patiëntenzorg, aangezien kunstmatige intelligentie (AI) steeds meer in de gezondheidszorg wordt geïntegreerd. Omdat ziekenhuizen en zorgverleners dergelijke gegevens inconsistent verzamelen en moeite hebben om individuele patiënten nauwkeurig te classificeren, kunnen AI-systemen die op deze datasets zijn getraind, raciale vooroordelen overnemen en in stand houden.
In een nieuwe publicatie in PLOS Digital Health roepen bio-ethiek en juridische experts op tot onmiddellijke standaardisatie van methoden voor het verzamelen van raciale en etnische gegevens en tot ontwikkelaars om de kwaliteit van raciale en etnische gegevens in medische AI-systemen te garanderen. Het onderzoek synthetiseert de zorgen over waarom de raciale gegevens van patiënten in EPD’s mogelijk niet accuraat zijn, identificeert best practices voor gezondheidszorgsystemen en medische AI-onderzoekers om de nauwkeurigheid van de gegevens te verbeteren, en biedt een nieuw sjabloon voor medische AI-ontwikkelaars om de kwaliteit van hun raciale en etnische gegevens op transparante wijze te rechtvaardigen.
Hoofdauteur Alexandra Tsalidis, MBE, merkt op dat "AI-ontwikkelaars die gehoor geven aan onze aanbeveling over de manier waarop hun raciale en etnische gegevens zijn verzameld, niet alleen de transparantie in medische AI zullen bevorderen, maar ook patiënten en toezichthouders zullen helpen de veiligheid van de hulpmiddelen te beoordelen."
Raciale vooroordelen in AI-modellen vormen een groot probleem nu de technologie steeds meer in de gezondheidszorg wordt geïntegreerd. Dit artikel biedt een concrete methode die kan worden geïmplementeerd om deze zorgen aan te pakken. “
Francis Shen, JD, PhD, senior auteur
Hoewel er nog meer werk moet worden gedaan, biedt het artikel een startpunt, voorgesteld door co-auteur Lakshmi Bharadwaj, MBE. “Een open dialoog over best practices is een essentiële stap, en de aanpak die wij voorstellen zou tot aanzienlijke verbeteringen kunnen leiden.”
Het onderzoek werd ondersteund door het NIH Bridge to Artificial Intelligence-programma (BRIDG2AI) en door een NIH Brain Neuroethics-subsidie (R01MH134144).
Bronnen:
Tsalidis, A., Bharadwaj, L., & Shen, FX (2025). Standaardisatie en nauwkeurigheid van ras- en etniciteitsgegevens: implicaties voor gelijkheid voor medische AI. PLOS Digitale Gezondheid. doi.org/10.1371/journal.pdig.0000807.