Zajmij się niedokładnymi danymi dotyczącymi rasy i pochodzenia etnicznego w medycznej sztucznej inteligencji

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Niedokładność danych dotyczących rasy i pochodzenia etnicznego znajdujących się w elektronicznej dokumentacji zdrowotnej (EHRS) może mieć negatywny wpływ na opiekę nad pacjentem, ponieważ sztuczna inteligencja (AI) jest w coraz większym stopniu integrowana z opieką zdrowotną. Ponieważ szpitale i świadczeniodawcy gromadzą takie dane w sposób niespójny i mają trudności z dokładną klasyfikacją poszczególnych pacjentów, systemy sztucznej inteligencji szkolone na tych zbiorach danych mogą dziedziczyć i utrwalać uprzedzenia rasowe. W nowej publikacji w PLOS Digital Health eksperci bioetyki i prawa wzywają do natychmiastowej standaryzacji metod gromadzenia danych rasowych i etnicznych oraz do zapewnienia programistom jakości danych rasowych i etnicznych w medycznych systemach AI. …

Zajmij się niedokładnymi danymi dotyczącymi rasy i pochodzenia etnicznego w medycznej sztucznej inteligencji

Niedokładność danych dotyczących rasy i pochodzenia etnicznego znajdujących się w elektronicznej dokumentacji zdrowotnej (EHRS) może mieć negatywny wpływ na opiekę nad pacjentem, ponieważ sztuczna inteligencja (AI) jest w coraz większym stopniu integrowana z opieką zdrowotną. Ponieważ szpitale i świadczeniodawcy gromadzą takie dane w sposób niespójny i mają trudności z dokładną klasyfikacją poszczególnych pacjentów, systemy sztucznej inteligencji szkolone na tych zbiorach danych mogą dziedziczyć i utrwalać uprzedzenia rasowe.

W nowej publikacji w PLOS Digital Health eksperci bioetyki i prawa wzywają do natychmiastowej standaryzacji metod gromadzenia danych rasowych i etnicznych oraz do zapewnienia programistom jakości danych rasowych i etnicznych w medycznych systemach AI. Badanie podsumowuje obawy dotyczące powodów, dla których dane rasowe pacjentów w EHR mogą być niedokładne, identyfikuje najlepsze praktyki dla systemów opieki zdrowotnej i badaczy medycznej sztucznej inteligencji w celu poprawy dokładności danych, a także zapewnia nowy szablon dla twórców medycznej sztucznej inteligencji, aby w przejrzysty sposób uzasadnić jakość swoich danych rasowych i etnicznych

Główna autorka Alexandra Tsalidis, MBE, zauważa, że ​​„twórcy sztucznej inteligencji, stosujący się do naszych zaleceń dotyczących sposobu gromadzenia ich danych rasowych i etnicznych, nie tylko zwiększą przejrzystość medycznej sztucznej inteligencji, ale także pomogą pacjentom i organom regulacyjnym ocenić bezpieczeństwo narzędzi”.

Uprzedzenia rasowe w modelach sztucznej inteligencji stanowią poważny problem w miarę coraz większego włączania tej technologii do opieki zdrowotnej. W tym artykule przedstawiono konkretną metodę, którą można wdrożyć, aby rozwiązać te problemy. „

Francis Shen, JD, PhD, starszy autor

Choć pozostaje jeszcze wiele do zrobienia, artykuł stanowi punkt wyjścia, zasugerowany przez współautorkę Lakshmi Bharadwaj, MBE. „Otwarty dialog na temat najlepszych praktyk jest niezbędnym krokiem, a proponowane przez nas podejścia mogą doprowadzić do znacznych ulepszeń”.

Badania były wspierane przez program NIH Bridge to Artificial Intelligence (BRIDG2AI) oraz grant NIH Brain Neuroethics (R01MH134144).


Źródła:

Journal reference:

Tsalidis, A., Bharadwaj, L. i Shen, F. X. (2025). Standaryzacja i dokładność danych dotyczących rasy i pochodzenia etnicznego: konsekwencje kapitałowe dla medycznej sztucznej inteligencji. PLOS Cyfrowe zdrowie. doi.org/10.1371/journal.pdig.0000807.