I modelli di intelligenza artificiale di patologia rivelano pregiudizi demografici nella diagnosi del cancro

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

La patologia è stata per lungo tempo la pietra angolare della diagnosi e del trattamento del cancro. Un patologo esamina attentamente una sezione ultrasottile di tessuto umano al microscopio alla ricerca di indizi che indichino la presenza, il tipo e lo stadio del cancro. Per un esperto umano, osservare un campione di tessuto rosa vorticoso punteggiato di cellule viola è...

I modelli di intelligenza artificiale di patologia rivelano pregiudizi demografici nella diagnosi del cancro

La patologia è stata per lungo tempo la pietra angolare della diagnosi e del trattamento del cancro. Un patologo esamina attentamente una sezione ultrasottile di tessuto umano al microscopio alla ricerca di indizi che indichino la presenza, il tipo e lo stadio del cancro.

Per un esperto umano, osservare un campione di tessuto rosa punteggiato di cellule viola è come valutare un esame senza un nome: la diapositiva rivela informazioni essenziali sulla malattia senza fornire ulteriori dettagli sul paziente.

Tuttavia, lo stesso non vale necessariamente per i modelli di intelligenza artificiale in patologia emersi negli ultimi anni. Un nuovo studio condotto da un team della Harvard Medical School mostra che questi modelli possono in qualche modo dedurre informazioni demografiche dalle diapositive di patologia, portando a errori nella diagnosi del cancro in diverse popolazioni.

Analizzando diversi importanti modelli di intelligenza artificiale per la diagnosi del cancro, i ricercatori hanno riscontrato prestazioni disuguali nel rilevare e differenziare i tumori in diverse popolazioni in base al sesso, alla razza e all’età auto-riferiti dai pazienti. Hanno identificato diverse possibili spiegazioni per questo pregiudizio demografico.

Il team ha poi sviluppato un quadro chiamato FAIR-Path, che ha contribuito a ridurre le distorsioni nei modelli.

Leggere i dati demografici da una diapositiva patologica è considerata una “missione impossibile” per un patologo umano, quindi il pregiudizio nell’IA patologica è stata una sorpresa per noi”.

Kun-Hsing Yu, autore senior, professore associato di informatica biomedica, Istituto Blavatnik presso HMS e assistente professore di patologia HMS presso il Brigham and Women's Hospital

Rilevare e combattere i bias dell’IA in medicina è fondamentale perché può influenzare l’accuratezza diagnostica così come i risultati dei pazienti, ha affermato Yu. Il successo di FAIR-Path dimostra che i ricercatori possono migliorare l’equità dei modelli di intelligenza artificiale per la patologia del cancro e potenzialmente di altri modelli di intelligenza artificiale in medicina, con il minimo sforzo.

Il lavoro, sostenuto in parte da finanziamenti federali, è descritto il 16 dicembre inMedicina dei rapporti cellulari.

Verificare la presenza di pregiudizi

Yu e il suo team hanno esaminato i bias in quattro modelli patologici standard di intelligenza artificiale sviluppati per la valutazione del cancro. Questi modelli di deep learning sono stati addestrati su serie di diapositive di patologia annotate, da cui hanno “appreso” modelli biologici che consentono loro di analizzare nuove diapositive e fare diagnosi.

I ricercatori hanno alimentato i modelli di intelligenza artificiale con un ampio archivio interistituzionale di diapositive patologiche di 20 tipi di cancro.

Hanno scoperto che tutti e quattro i modelli avevano prestazioni distorte e fornivano diagnosi meno accurate per i pazienti di determinati gruppi in base alla razza, al sesso e all’età auto-riferiti. Ad esempio, i modelli avevano difficoltà a distinguere i sottotipi di cancro al polmone nei pazienti afroamericani e di sesso maschile e i sottotipi di cancro al seno nei pazienti più giovani. I modelli hanno anche avuto difficoltà a rilevare tumori al seno, ai reni, alla tiroide e allo stomaco in alcune popolazioni. Queste differenze di prestazioni si sono verificate in circa il 29% delle attività diagnostiche eseguite dai modelli.

Questa inaccuratezza diagnostica, ha detto Yu, è dovuta al fatto che questi modelli estraggono informazioni demografiche dalle diapositive e si basano su modelli demografici specifici per diagnosticare.

I risultati sono stati inaspettati “perché ci aspetteremmo una valutazione obiettiva della patologia”, ha aggiunto Yu. "Quando valutiamo le immagini, non abbiamo necessariamente bisogno di conoscere i dati demografici di un paziente per fare una diagnosi."

Il team si è chiesto: perché l’IA patologica non ha mostrato la stessa obiettività?

In cerca di spiegazioni

I ricercatori hanno fornito tre spiegazioni.

Poiché è più facile per i pazienti di alcune popolazioni ottenere campioni, i modelli di intelligenza artificiale vengono addestrati su campioni di dimensioni diverse. Ciò rende più difficile per i modelli effettuare una diagnosi accurata in campioni che non sono ben rappresentati nel set di addestramento, come quelli appartenenti a gruppi minoritari in base a razza, età o sesso.

Ma “il problema era molto più profondo”, ha detto Yu. I ricercatori hanno notato che i modelli a volte hanno ottenuto risultati peggiori in un gruppo di popolazione, anche quando le dimensioni dei campioni erano comparabili.

Ulteriori analisi hanno scoperto che ciò potrebbe essere dovuto a differenze nella prevalenza della malattia: alcuni tumori sono più comuni in determinati gruppi, rendendo i modelli più efficaci nel fare una diagnosi in quei gruppi. Di conseguenza, i modelli potrebbero avere difficoltà a diagnosticare i tumori nelle popolazioni in cui non sono così comuni.

I modelli di intelligenza artificiale catturano anche sottili differenze molecolari nei campioni provenienti da diversi gruppi demografici. Ad esempio, i modelli possono rilevare mutazioni nei geni cancerogeni e usarli come proxy per il tipo di cancro – e sono quindi meno efficaci nel fare una diagnosi nelle popolazioni in cui queste mutazioni sono meno comuni.

"Abbiamo scoperto che il potere dell'intelligenza artificiale le consente di distinguere molti segnali biologici poco chiari che non possono essere rilevati dalla normale interpretazione umana", ha detto Yu.

Ciò consente ai modelli di apprendere potenzialmente segnali che sono più legati ai dati demografici che alle malattie. Ciò, a sua volta, potrebbe avere un impatto sulle loro capacità diagnostiche tra i gruppi.

Nel loro insieme, afferma Yu, queste spiegazioni suggeriscono che i pregiudizi nell’intelligenza artificiale patologica derivano non solo dalla qualità variabile dei dati di addestramento, ma anche dal modo in cui i ricercatori addestrano i modelli.

Trova una soluzione

Dopo aver valutato la portata e le cause del bias, Yu e il suo team hanno deciso di risolvere il problema.

I ricercatori hanno sviluppato FAIR-Path, un quadro semplice basato su un concetto di apprendimento automatico esistente chiamato apprendimento contrastivo. L’apprendimento contrastivo aggiunge un elemento alla formazione sull’intelligenza artificiale che insegna al modello a enfatizzare le differenze tra categorie importanti – in questo caso i tumori – e a minimizzare le differenze tra categorie meno importanti – in questo caso i gruppi demografici.

Quando i ricercatori hanno applicato la struttura FAIR-Path ai modelli testati, le differenze diagnostiche sono state ridotte di circa l’88%.

“Dimostriamo che attraverso questo piccolo aggiustamento, i modelli possono apprendere caratteristiche robuste che li rendono più generalizzabili ed equi tra popolazioni diverse”, ha affermato Yu.

Il risultato è incoraggiante, ha aggiunto, perché suggerisce che le distorsioni possono essere ridotte anche senza addestrare i modelli su dati completamente equi e rappresentativi.

Successivamente, Yu e il suo team stanno collaborando con istituzioni di tutto il mondo per esaminare l’entità dei pregiudizi nell’intelligenza artificiale patologica in luoghi con dati demografici diversi e pratiche cliniche e patologiche diverse. Stanno anche esplorando modi per estendere FAIR-Path ad ambienti con dimensioni del campione limitate. Inoltre, vogliono esaminare in che modo i bias nell’intelligenza artificiale contribuiscono alle discrepanze demografiche nell’assistenza sanitaria e nei risultati dei pazienti.

In definitiva, ha affermato Yu, l’obiettivo è quello di creare modelli di intelligenza artificiale patologica equi e imparziali che possano migliorare il trattamento del cancro aiutando i patologi umani a fare una diagnosi in modo rapido e accurato.

“Penso che ci sia la speranza che, se siamo più consapevoli e attenti nello sviluppo dei sistemi di intelligenza artificiale, possiamo sviluppare modelli che funzionino bene in qualsiasi popolazione”, ha affermato.


Fonti:

Journal reference:

Lin, S.-Y.,et al. (2025). L’apprendimento contrastivo migliora l’equità nei sistemi di intelligenza artificiale della patologia. Medicina dei rapporti cellulari. doi:10.1016/j.xcrm.2025.102527.  https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7