Modelele IA de patologie dezvăluie părtiniri demografice în diagnosticul cancerului

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Patologia a fost mult timp piatra de temelie a diagnosticului și tratamentului cancerului. Un patolog examinează cu atenție o secțiune ultra-subțire de țesut uman la microscop pentru a găsi indicii care indică prezența, tipul și stadiul cancerului. Pentru un expert uman, a privi o probă de țesut roz învolburată, punctată cu celule violet, este...

Modelele IA de patologie dezvăluie părtiniri demografice în diagnosticul cancerului

Patologia a fost mult timp piatra de temelie a diagnosticului și tratamentului cancerului. Un patolog examinează cu atenție o secțiune ultra-subțire de țesut uman la microscop pentru a găsi indicii care indică prezența, tipul și stadiul cancerului.

Pentru un expert uman, a privi un eșantion de țesut roz învolburat punctat cu celule violet este ca și cum ați evalua un examen fără un nume – slide-ul dezvăluie informații esențiale despre boală fără a oferi detalii suplimentare despre pacient.

Cu toate acestea, nu același lucru se aplică neapărat modelelor de inteligență artificială în patologie care au apărut în ultimii ani. Un nou studiu condus de o echipă de la Harvard Medical School arată că aceste modele pot deduce cumva informații demografice din diapozitivele patologice, ceea ce duce la prejudecăți de diagnosticare a cancerului în diferite populații.

Analizând mai multe modele de IA patologice majore pentru diagnosticarea cancerului, cercetătorii au descoperit performanțe inegale în detectarea și diferențierea cancerelor în diferite populații pe baza sexului, rasei și vârstei auto-raportate de către pacienți. Ei au identificat mai multe explicații posibile pentru această părtinire demografică.

Echipa a dezvoltat apoi un cadru numit FAIR-Path, care a ajutat la reducerea părtinirii modelelor.

Citirea datelor demografice dintr-un diapozitiv de patologie este considerată o „misiune imposibilă” pentru un patolog uman, așa că părtinirea IA a patologiei a fost o surpriză pentru noi.”

Kun-Hsing Yu, autor principal, profesor asociat de informatică biomedicală, Institutul Blavatnik la HMS și profesor asistent HMS de patologie la Spitalul Brigham și Femei

Detectarea și combaterea părtinirii AI în medicină este esențială, deoarece poate afecta acuratețea diagnosticului, precum și rezultatele pacientului, a spus Yu. Succesul FAIR-Path arată că cercetătorii pot îmbunătăți corectitudinea modelelor AI pentru patologia cancerului și, eventual, a altor modele AI în medicină, cu un efort minim.

Lucrarea, susținută parțial de finanțare federală, este descrisă pe 16 decembrie înCell Reports Medicine.

Verificați părtinirea

Yu și echipa sa au examinat părtinirea în patru modele standard de patologie AI dezvoltate pentru evaluarea cancerului. Aceste modele de învățare profundă au fost antrenate pe seturi de diapozitive patologice adnotate, din care au „învățat” modele biologice care le permit să analizeze noi diapozitive și să pună diagnostice.

Cercetătorii au alimentat modelele AI cu o arhivă mare, interinstituțională, de diapozitive patologice din 20 de tipuri de cancer.

Ei au descoperit că toate cele patru modele au avut performanțe distorsionate și au oferit diagnostice mai puțin precise pentru pacienții din anumite grupuri, bazate pe rasa, sexul și vârsta auto-raportate. De exemplu, modelele au avut dificultăți în a distinge subtipurile de cancer pulmonar la pacienții afro-americani și bărbați și subtipurile de cancer de sân la pacienții mai tineri. De asemenea, modelele au avut dificultăți în detectarea cancerelor de sân, rinichi, tiroide și stomac la anumite populații. Aceste diferențe de performanță au apărut în aproximativ 29% dintre sarcinile de diagnosticare efectuate de modele.

Această inexactitate a diagnosticului, a spus Yu, se datorează faptului că aceste modele extrag informații demografice din diapozitive - și se bazează pe modele specifice demografice pentru a diagnostica.

Rezultatele au fost neașteptate „pentru că ne-am aștepta la o evaluare obiectivă a patologiei”, a adăugat Yu. „Când evaluăm imagini, nu trebuie neapărat să cunoaștem datele demografice ale pacientului pentru a pune un diagnostic.”

Echipa s-a întrebat: de ce IA patologică nu a arătat aceeași obiectivitate?

Caut explicatii

Cercetătorii au venit cu trei explicații.

Deoarece este mai ușor pentru pacienții din anumite populații să obțină mostre, modelele AI sunt antrenate pe dimensiuni inegale ale eșantioanelor. Acest lucru face mai dificil pentru modele să facă un diagnostic precis în eșantioanele care nu sunt bine reprezentate în setul de antrenament, cum ar fi cele din grupuri minoritare bazate pe rasă, vârstă sau sex.

Dar „problema a fost mult mai profundă”, a spus Yu. Cercetătorii au observat că modelele au avut uneori rezultate mai slabe într-un grup de populație, chiar și atunci când dimensiunile eșantionului erau comparabile.

O analiză suplimentară a constatat că acest lucru se poate datora diferențelor de prevalență a bolii: unele tipuri de cancer sunt mai frecvente în anumite grupuri, ceea ce face ca modelele să fie mai bune la stabilirea unui diagnostic în acele grupuri. Ca rezultat, modelele pot avea dificultăți în diagnosticarea cancerelor în populațiile în care acestea nu sunt la fel de frecvente.

Modelele AI captează, de asemenea, diferențe moleculare subtile în probele din diferite grupuri demografice. De exemplu, modelele pot detecta mutații în genele conducătoare de cancer și le pot folosi ca proxy pentru tipul de cancer - și, prin urmare, sunt mai puțin eficiente în a face un diagnostic în populațiile în care aceste mutații sunt mai puțin frecvente.

„Am descoperit că puterea AI îi permite să distingă multe semnale biologice neclare care nu pot fi detectate prin interpretarea umană normală”, a spus Yu.

Acest lucru permite modelelor să învețe potențial semnale care sunt mai mult legate de demografie decât de boală. Acest lucru, la rândul său, le-ar putea afecta abilitățile de diagnosticare între grupuri.

Luate împreună, spune Yu, aceste explicații sugerează că părtinirea în IA patologică provine nu numai din calitatea variabilă a datelor de antrenament, ci și din modul în care cercetătorii antrenează modelele.

Găsiți o soluție

După ce au evaluat amploarea și cauzele părtinirii, Yu și echipa sa și-au propus să rezolve problema.

Cercetătorii au dezvoltat FAIR-Path, un cadru simplu bazat pe un concept existent de învățare automată numit învățare contrastivă. Învățarea contrastantă adaugă un element antrenamentului AI care învață modelul să sublinieze diferențele dintre categoriile importante - în acest caz cancere - și să minimizeze diferențele dintre categoriile mai puțin importante - în acest caz grupuri demografice.

Când cercetătorii au aplicat cadrul FAIR-Path la modelele pe care le-au testat, a redus diferențele de diagnosticare cu aproximativ 88 la sută.

„Arătăm că prin această mică ajustare, modelele pot învăța caracteristici robuste care le fac mai generalizabile și mai echitabile pentru diferite populații”, a spus Yu.

Rezultatul este încurajator, a adăugat el, deoarece sugerează că părtinirile pot fi reduse chiar și fără antrenarea modelelor pe date complet corecte și reprezentative.

În continuare, Yu și echipa sa colaborează cu instituții din întreaga lume pentru a examina amploarea părtinirii în IA patologică în locații cu date demografice diferite și practici clinice și patologice diferite. De asemenea, ei explorează modalități de a extinde FAIR-Path la setări cu dimensiuni limitate de eșantion. În plus, doresc să examineze modul în care părtinirea IA contribuie la discrepanțe demografice în ceea ce privește asistența medicală și rezultatele pacienților.

În cele din urmă, a spus Yu, scopul este de a crea modele IA de patologie echitabile, imparțial, care pot îmbunătăți tratamentul cancerului, ajutând patologii umani să pună un diagnostic rapid și precis.

„Cred că există speranță că, dacă suntem mai conștienți și mai atenți în dezvoltarea sistemelor AI, putem dezvolta modele care funcționează bine în orice populație”, a spus el.


Surse:

Journal reference:

Lin, S.-Y.,et al. (2025). Învățarea contrastantă îmbunătățește corectitudinea în sistemele de inteligență artificială patologică. Cell Reports Medicine. doi:10.1016/j.xcrm.2025.102527.  https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7