I pregiudizi razzisti e di altro tipo negli algoritmi di intelligenza artificiale per l’assistenza sanitaria possono essere combattuti con il sostegno pubblico
Ai membri del pubblico viene chiesto di contribuire a eliminare i pregiudizi basati sulla razza e su altri gruppi svantaggiati negli algoritmi di intelligenza artificiale per l’assistenza sanitaria. I ricercatori sanitari chiedono sostegno per affrontare la questione del perché i gruppi “minorizzati” che sono attivamente svantaggiati dai costrutti sociali non trarrebbero beneficio dall’uso dell’intelligenza artificiale nell’assistenza sanitaria in futuro. Il team, guidato dall’Università di Birmingham e dagli University Hospitals Birmingham, scrive oggi su Nature Medicine di lanciare una consultazione su una serie di standard che sperano possano ridurre i pregiudizi noti negli algoritmi di intelligenza artificiale. C'è sempre…

I pregiudizi razzisti e di altro tipo negli algoritmi di intelligenza artificiale per l’assistenza sanitaria possono essere combattuti con il sostegno pubblico
Ai membri del pubblico viene chiesto di contribuire a eliminare i pregiudizi basati sulla razza e su altri gruppi svantaggiati negli algoritmi di intelligenza artificiale per l’assistenza sanitaria.
I ricercatori sanitari chiedono sostegno per affrontare la questione del perché i gruppi “minorizzati” che sono attivamente svantaggiati dai costrutti sociali non trarrebbero beneficio dall’uso dell’intelligenza artificiale nell’assistenza sanitaria in futuro. Il team, guidato dall’Università di Birmingham e dagli University Hospitals Birmingham, scrive oggi su Nature Medicine di lanciare una consultazione su una serie di standard che sperano possano ridurre i pregiudizi noti negli algoritmi di intelligenza artificiale.
Esistono prove sempre più evidenti che alcuni algoritmi di intelligenza artificiale funzionano meno bene per determinati gruppi di persone, in particolare quelli appartenenti a minoranze razziali/etniche. Parte di ciò è dovuto a distorsioni nei set di dati utilizzati per sviluppare algoritmi di intelligenza artificiale. Ciò significa che i pazienti provenienti da ambienti neri e appartenenti a minoranze etniche potrebbero ricevere previsioni imprecise, che possono portare a diagnosi errate e trattamenti errati.
STANDING Together è una collaborazione internazionale che svilupperà standard di migliori pratiche per i set di dati sanitari utilizzati nell’intelligenza artificiale per garantire che siano diversi, inclusivi e non lascino indietro gruppi sottorappresentati o minoritari. Il progetto è finanziato dall’NHS AI Lab e dalla Health Foundation, e il finanziamento è gestito dal National Institute for Health and Care Research, il partner di ricerca sulla sanità pubblica e l’assistenza sociale dell’NHS, come parte dell’Iniziativa etica sull’intelligenza artificiale di NHS AI Labs.
Il dottor Xiaoxuan Liu, dell'Istituto di infiammazione e invecchiamento dell'Università di Birmingham e co-leader del progetto STANDING Together, ha dichiarato:
"Avendo la giusta base di dati, STANDING Together garantisce che nessuno venga lasciato indietro mentre cerchiamo di sfruttare i vantaggi delle tecnologie basate sui dati come l'intelligenza artificiale. Abbiamo reso disponibile al pubblico il nostro studio Delphi in modo da poter massimizzare la nostra portata." alle comunità e agli individui. Ciò ci consente di garantire che le raccomandazioni di STANDING Together riflettano veramente ciò che è importante per la nostra comunità diversificata.
Il professor Alastair Denniston, consulente oculista presso gli ospedali universitari di Birmingham e professore presso l'Istituto di infiammazione e invecchiamento dell'Università di Birmingham, è co-direttore del progetto. Il professor Denniston ha detto:
“Come medico del servizio sanitario nazionale, accolgo con favore l’introduzione di tecnologie di intelligenza artificiale che possono aiutarci a migliorare l’assistenza sanitaria che forniamo: diagnosi più rapide e accurate, trattamenti sempre più personalizzati e interfacce sanitarie che danno al paziente un maggiore controllo”. Ma dobbiamo anche garantire che queste tecnologie siano inclusive. Dobbiamo garantire che funzionino in modo efficace e sicuro per tutti coloro che ne hanno bisogno”.
Questo è uno dei progetti più gratificanti a cui abbia mai lavorato perché riflette non solo il mio vivo interesse nell’utilizzo di dati accurati e convalidati e una buona documentazione per supportare la scoperta, ma anche l’urgente necessità di includere le minoranze e i gruppi svantaggiati nella ricerca a loro vantaggio. Naturalmente, quest’ultimo gruppo comprende anche le donne”.
Jacqui Gath, paziente partner del progetto STANDING Together
Il progetto STANDING Together è ora aperto alla consultazione pubblica attraverso uno studio di consenso Delphi. I ricercatori invitano i membri del pubblico, gli operatori sanitari, i ricercatori, gli sviluppatori di intelligenza artificiale, i data scientist, i politici e i regolatori a contribuire a rivedere questi standard per garantire che funzionino per te e per tutti coloro con cui lavori.
Fonte:
Riferimento:
Ganapathi, S., et al. (2022) Affrontare le distorsioni nei set di dati dell’intelligenza artificiale attraverso l’iniziativa STANDING Together. Medicina naturale. doi.org/10.1038/s41591-022-01987-w.