Affrontare i dati imprecisi su razza ed etnia nell’intelligenza artificiale medica
L’inesattezza dei dati razziali ed etnici riscontrati nelle cartelle cliniche elettroniche (EHRS) può avere un impatto negativo sull’assistenza ai pazienti poiché l’intelligenza artificiale (AI) è sempre più integrata nell’assistenza sanitaria. Poiché gli ospedali e i fornitori raccolgono tali dati in modo incoerente e faticano a classificare accuratamente i singoli pazienti, i sistemi di intelligenza artificiale addestrati su questi set di dati possono ereditare e perpetuare pregiudizi razziali. In una nuova pubblicazione su PLOS Digital Health, esperti di bioetica ed esperti legali chiedono l’immediata standardizzazione dei metodi per la raccolta di dati razziali ed etnici e che gli sviluppatori garantiscano la qualità dei dati razziali ed etnici nei sistemi di IA medica. …
Affrontare i dati imprecisi su razza ed etnia nell’intelligenza artificiale medica
L’inesattezza dei dati razziali ed etnici riscontrati nelle cartelle cliniche elettroniche (EHRS) può avere un impatto negativo sull’assistenza ai pazienti poiché l’intelligenza artificiale (AI) è sempre più integrata nell’assistenza sanitaria. Poiché gli ospedali e i fornitori raccolgono tali dati in modo incoerente e faticano a classificare accuratamente i singoli pazienti, i sistemi di intelligenza artificiale addestrati su questi set di dati possono ereditare e perpetuare pregiudizi razziali.
In una nuova pubblicazione su PLOS Digital Health, esperti di bioetica ed esperti legali chiedono l’immediata standardizzazione dei metodi per la raccolta di dati razziali ed etnici e che gli sviluppatori garantiscano la qualità dei dati razziali ed etnici nei sistemi di IA medica. La ricerca sintetizza le preoccupazioni sul motivo per cui i dati razziali dei pazienti nelle cartelle cliniche elettroniche potrebbero non essere accurati, identifica le migliori pratiche per i sistemi sanitari e i ricercatori di intelligenza artificiale medica per migliorare l’accuratezza dei dati e fornisce un nuovo modello per gli sviluppatori di intelligenza artificiale medica per giustificare in modo trasparente la qualità dei loro dati razziali ed etnici.
L'autrice principale Alexandra Tsalidis, MBE, osserva che "gli sviluppatori di intelligenza artificiale che ascoltano le nostre raccomandazioni su come sono stati raccolti i loro dati razziali ed etnici non solo miglioreranno la trasparenza nell'intelligenza artificiale medica, ma aiuteranno anche i pazienti e gli enti regolatori a valutare la sicurezza degli strumenti".
I pregiudizi razziali nei modelli di intelligenza artificiale rappresentano un grave problema poiché la tecnologia diventa sempre più integrata nell’assistenza sanitaria. Questo articolo fornisce un metodo concreto che può essere implementato per affrontare queste preoccupazioni. “
Francis Shen, JD, PhD, autore senior
Sebbene sia necessario lavorare ancora, l'articolo offre un punto di partenza, suggerito dal coautore Lakshmi Bharadwaj, MBE. “Un dialogo aperto sulle migliori pratiche è un passo essenziale e gli approcci che proponiamo potrebbero ottenere miglioramenti significativi”.
La ricerca è stata supportata dal programma NIH Bridge to Artificial Intelligence (BRIDG2AI) e da una sovvenzione NIH Brain Neuroethics (R01MH134144).
Fonti:
Tsalidis, A., Bharadwaj, L. e Shen, F. X. (2025). Standardizzazione e accuratezza dei dati su razza ed etnia: implicazioni sull'equità per l'intelligenza artificiale medica. PLOS Salute Digitale. doi.org/10.1371/journal.pdig.0000807.