Käsittele epätarkkoja rotu- ja etnisiä tietoja lääketieteellisessä tekoälyssä
Sähköisistä terveyskertomuksista (EHRS) löydetyt rotuun ja etnisyyteen liittyvien tietojen epätarkkuudet voivat vaikuttaa kielteisesti potilaiden hoitoon, kun tekoälyä (AI) integroidaan yhä enemmän terveydenhuoltoon. Koska sairaalat ja palveluntarjoajat keräävät tällaisia tietoja epäjohdonmukaisesti ja heillä on vaikeuksia luokitella yksittäisiä potilaita tarkasti, näihin tietokokonaisuuksiin koulutetut tekoälyjärjestelmät voivat periä ja säilyttää rodulliset ennakkoluulot. Uudessa PLOS Digital Health -julkaisussa bioetiikka- ja lakiasiantuntijat vaativat rotu- ja etnisten tietojen keräämismenetelmien välitöntä standardointia ja kehittäjiä takaamaan rodun ja etnisen tiedon laadun lääketieteellisissä tekoälyjärjestelmissä. …
Käsittele epätarkkoja rotu- ja etnisiä tietoja lääketieteellisessä tekoälyssä
Sähköisistä terveyskertomuksista (EHRS) löydetyt rotuun ja etnisyyteen liittyvien tietojen epätarkkuudet voivat vaikuttaa kielteisesti potilaiden hoitoon, kun tekoälyä (AI) integroidaan yhä enemmän terveydenhuoltoon. Koska sairaalat ja palveluntarjoajat keräävät tällaisia tietoja epäjohdonmukaisesti ja heillä on vaikeuksia luokitella yksittäisiä potilaita tarkasti, näihin tietokokonaisuuksiin koulutetut tekoälyjärjestelmät voivat periä ja säilyttää rodulliset ennakkoluulot.
Uudessa PLOS Digital Health -julkaisussa bioetiikka- ja lakiasiantuntijat vaativat rotu- ja etnisten tietojen keräämismenetelmien välitöntä standardointia ja kehittäjiä takaamaan rodun ja etnisen tiedon laadun lääketieteellisissä tekoälyjärjestelmissä. Tutkimuksessa syntetisoidaan huolenaiheita siitä, miksi potilaiden rotutiedot eivät ehkä ole tarkkoja, yksilöidään terveydenhuoltojärjestelmille ja lääketieteellisille tekoälytutkijoille parhaat käytännöt tietojen tarkkuuden parantamiseksi ja tarjotaan uusi malli lääketieteellisen tekoälyn kehittäjille, jotka voivat perustella avoimesti rodullisten ja etnisten tietojensa laatua.
Johtava kirjoittaja Alexandra Tsalidis, MBE, toteaa, että "Tekoälykehittäjät, jotka ottavat huomioon suosituksensa siitä, miten heidän rodullisia ja etnisiä tietojaan kerättiin, eivät ainoastaan edistä lääketieteellisen tekoälyn läpinäkyvyyttä, vaan myös auttavat potilaita ja sääntelyviranomaisia arvioimaan työkalujen turvallisuutta."
Tekoälymallien rotuharha on suuri ongelma, kun teknologia integroituu yhä enemmän terveydenhuoltoon. Tämä artikkeli tarjoaa konkreettisen menetelmän, jota voidaan käyttää näiden ongelmien ratkaisemiseksi. "
Francis Shen, JD, PhD, vanhempi kirjailija
Vaikka työtä on tehtävä enemmän, artikkeli tarjoaa lähtökohdan, jota ehdotti toinen kirjoittaja Lakshmi Bharadwaj, MBE. "Avoin vuoropuhelu parhaista käytännöistä on olennainen askel, ja ehdottamamme lähestymistavat voivat saada aikaan merkittäviä parannuksia."
Tutkimusta tuki NIH Bridge to Artificial Intelligence -ohjelma (BRIDG2AI) ja NIH Brain Neuroethics -apuraha (R01MH134144).
Lähteet:
Tsalidis, A., Bharadwaj, L., & Shen, F. X. (2025). Rotu- ja etnisyystietojen standardointi ja tarkkuus: Lääketieteellisen tekoälyn tasapuolisuus. PLOS Digital Health. doi.org/10.1371/journal.pdig.0000807.