Håndter unøjagtige race- og etnicitetsdata i medicinsk AI
Unøjagtigheden af race- og etnicitetsdata fundet i elektroniske sundhedsjournaler (EHRS) kan have en negativ indvirkning på patientbehandlingen, da kunstig intelligens (AI) i stigende grad integreres i sundhedsvæsenet. Fordi hospitaler og udbydere indsamler sådanne data inkonsekvent og kæmper for nøjagtigt at klassificere individuelle patienter, kan AI-systemer, der er trænet på disse datasæt, arve og fastholde racemæssige skævheder. I en ny publikation i PLOS Digital Health opfordrer bioetik og juridiske eksperter til øjeblikkelig standardisering af metoder til indsamling af racemæssige og etniske data og til at udviklere garanterer kvaliteten af racemæssige og etniske data i medicinske AI-systemer. …
Håndter unøjagtige race- og etnicitetsdata i medicinsk AI
Unøjagtigheden af race- og etnicitetsdata fundet i elektroniske sundhedsjournaler (EHRS) kan have en negativ indvirkning på patientbehandlingen, da kunstig intelligens (AI) i stigende grad integreres i sundhedsvæsenet. Fordi hospitaler og udbydere indsamler sådanne data inkonsekvent og kæmper for nøjagtigt at klassificere individuelle patienter, kan AI-systemer, der er trænet på disse datasæt, arve og fastholde racemæssige skævheder.
I en ny publikation i PLOS Digital Health opfordrer bioetik og juridiske eksperter til øjeblikkelig standardisering af metoder til indsamling af racemæssige og etniske data og til at udviklere garanterer kvaliteten af racemæssige og etniske data i medicinske AI-systemer. Forskningen syntetiserer bekymringer om, hvorfor patientracedata i EPJ'er muligvis ikke er nøjagtige, identificerer bedste praksis for sundhedssystemer og medicinske AI-forskere for at forbedre datanøjagtigheden, og giver en ny skabelon til medicinsk AI-udviklere til gennemsigtigt at retfærdiggøre kvaliteten af deres racemæssige og etniske data
Hovedforfatter Alexandra Tsalidis, MBE, bemærker, at "AI-udviklere, der følger vores anbefaling om, hvordan deres racemæssige og etniske data blev indsamlet, vil ikke kun fremme gennemsigtigheden i medicinsk AI, men også hjælpe patienter og regulatorer med at vurdere sikkerheden af værktøjerne."
Racebias i AI-modeller er et stort problem, da teknologien bliver mere og mere integreret i sundhedsvæsenet. Denne artikel giver en konkret metode, der kan implementeres til at løse disse problemer. “
Francis Shen, JD, PhD, senior forfatter
Mens der skal gøres mere arbejde, giver artiklen et udgangspunkt, foreslået af medforfatter Lakshmi Bharadwaj, MBE. "En åben dialog om bedste praksis er et væsentligt skridt, og de tilgange, vi foreslår, kan opnå betydelige forbedringer."
Forskningen blev støttet af NIH Bridge to Artificial Intelligence-programmet (BRIDG2AI) og af en NIH Brain Neuroethics-bevilling (R01MH134144).
Kilder:
Tsalidis, A., Bharadwaj, L., & Shen, F. X. (2025). Standardisering og nøjagtighed af race- og etnicitetsdata: Ligelighedsimplikationer for medicinsk AI. PLOS Digital Sundhed. doi.org/10.1371/journal.pdig.0000807.