Řešte nepřesné údaje o rase a etnickém původu v lékařské umělé inteligenci

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Nepřesnost rasových a etnických údajů nalezených v elektronických zdravotních záznamech (EHRS) může mít negativní dopad na péči o pacienty, protože umělá inteligence (AI) je stále více integrována do zdravotní péče. Protože nemocnice a poskytovatelé shromažďují taková data nekonzistentně a mají potíže s přesnou klasifikací jednotlivých pacientů, systémy umělé inteligence vyškolené na těchto souborech dat mohou dědit a udržovat rasové předsudky. V nové publikaci v PLOS Digital Health odborníci na bioetiku a právo požadují okamžitou standardizaci metod sběru rasových a etnických dat a vývojáře, aby zaručili kvalitu rasových a etnických dat v lékařských systémech umělé inteligence. …

Řešte nepřesné údaje o rase a etnickém původu v lékařské umělé inteligenci

Nepřesnost rasových a etnických údajů nalezených v elektronických zdravotních záznamech (EHRS) může mít negativní dopad na péči o pacienty, protože umělá inteligence (AI) je stále více integrována do zdravotní péče. Protože nemocnice a poskytovatelé shromažďují taková data nekonzistentně a mají potíže s přesnou klasifikací jednotlivých pacientů, systémy umělé inteligence vyškolené na těchto souborech dat mohou dědit a udržovat rasové předsudky.

V nové publikaci v PLOS Digital Health odborníci na bioetiku a právo požadují okamžitou standardizaci metod sběru rasových a etnických dat a vývojáře, aby zaručili kvalitu rasových a etnických dat v lékařských systémech umělé inteligence. Výzkum syntetizuje obavy, proč rasová data pacientů v EHR nemusí být přesná, identifikuje osvědčené postupy pro zdravotnické systémy a výzkumníky lékařské umělé inteligence ke zlepšení přesnosti dat a poskytuje novou šablonu pro vývojáře lékařské umělé inteligence, aby transparentně zdůvodnili kvalitu svých rasových a etnických údajů.

Vedoucí autorka Alexandra Tsalidis, MBE, poznamenává, že „vývojáři AI, kteří dbají na naše doporučení ohledně toho, jak byla shromažďována jejich rasová a etnická data, nejen posílí transparentnost lékařské AI, ale také pomohou pacientům a regulačním orgánům posoudit bezpečnost nástrojů.“

Rasové předsudky v modelech umělé inteligence jsou hlavním problémem, protože tato technologie se stále více integruje do zdravotnictví. Tento článek poskytuje konkrétní metodu, kterou lze implementovat k řešení těchto problémů. “

Francis Shen, JD, PhD, hlavní autor

I když je třeba udělat více práce, článek nabízí výchozí bod, který navrhl spoluautor Lakshmi Bharadwaj, MBE. „Otevřený dialog o osvědčených postupech je zásadním krokem a přístupy, které navrhujeme, by mohly dosáhnout významných zlepšení.“

Výzkum byl podpořen programem NIH Bridge to Artificial Intelligence (BRIDG2AI) a grantem NIH Brain Neuroethics (R01MH134144).


Zdroje:

Journal reference:

Tsalidis, A., Bharadwaj, L., & Shen, F. X. (2025). Standardizace a přesnost údajů o rase a etnicitě: Důsledky rovnosti pro lékařskou umělou inteligenci. Digitální zdraví PLOS. doi.org/10.1371/journal.pdig.0000807.