Patološki AI modeli otkrivaju demografske pristranosti u dijagnozi raka

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Patologija je dugo bila kamen temeljac dijagnostike i liječenja raka. Patolog pažljivo pregledava ultratanak dio ljudskog tkiva pod mikroskopom tražeći tragove koji ukazuju na prisutnost, vrstu i stadij raka. Za ljudskog stručnjaka, promatranje kovitlajućeg ružičastog uzorka tkiva prošaranog ljubičastim stanicama je...

Patološki AI modeli otkrivaju demografske pristranosti u dijagnozi raka

Patologija je dugo bila kamen temeljac dijagnostike i liječenja raka. Patolog pažljivo pregledava ultratanak dio ljudskog tkiva pod mikroskopom tražeći tragove koji ukazuju na prisutnost, vrstu i stadij raka.

Za ljudskog stručnjaka, gledanje u kovitlajući ružičasti uzorak tkiva prošaran ljubičastim stanicama je poput ocjenjivanja ispita bez imena na njemu - slajd otkriva bitne informacije o bolesti bez pružanja daljnjih pojedinosti o pacijentu.

Međutim, isto ne vrijedi nužno za modele umjetne inteligencije u patologiji koji su se pojavili posljednjih godina. Nova studija koju je vodio tim s Medicinskog fakulteta Harvard pokazuje da ovi modeli mogu nekako zaključiti demografske informacije iz patoloških slajdova, što dovodi do pristranosti u dijagnozi raka u različitim populacijama.

Analizirajući nekoliko glavnih patoloških modela umjetne inteligencije za dijagnozu raka, istraživači su otkrili nejednaku izvedbu u otkrivanju i razlikovanju karcinoma u različitim populacijama na temelju pacijentovog spola, rase i dobi. Identificirali su nekoliko mogućih objašnjenja za ovu demografsku pristranost.

Tim je zatim razvio okvir pod nazivom FAIR-Path, koji je pomogao smanjiti pristranost u modelima.

Čitanje demografskih podataka s patološkog slajda smatra se "nemogućom misijom" za ljudskog patologa, tako da je pristranost u patološkoj umjetnoj inteligenciji bila iznenađenje za nas."

Kun-Hsing Yu, viši autor, izvanredni profesor biomedicinske informatike, Blavatnik Institut na HMS-u i HMS docent patologije na Brigham and Women's Hospital

Otkrivanje i borba protiv pristranosti umjetne inteligencije u medicini je ključno jer može utjecati na dijagnostičku točnost kao i na ishode pacijenata, rekao je Yu. Uspjeh FAIR-Patha pokazuje da istraživači mogu poboljšati pravednost modela umjetne inteligencije za patologiju raka, a potencijalno i drugih modela umjetne inteligencije u medicini, uz minimalan napor.

Djelo, djelomično podržano federalnim financiranjem, opisano je 16. prosinca uCell Reports Medicine.

Provjerite pristranost

Yu i njegov tim ispitali su pristranost u četiri standardna patološka modela umjetne inteligencije razvijena za procjenu raka. Ovi modeli dubokog učenja uvježbani su na skupovima označenih patoloških slajdova, iz kojih su "naučili" biološke obrasce koji im omogućuju analizu novih slajdova i postavljanje dijagnoza.

Istraživači su nahranili modele umjetne inteligencije velikom, međuinstitucionalnom arhivom patoloških slajdova za 20 vrsta raka.

Otkrili su da su sva četiri modela imala iskrivljenu izvedbu i pružila su manje točne dijagnoze za pacijente u određenim skupinama na temelju samoprijavljene rase, spola i dobi. Na primjer, modeli su imali poteškoća u razlikovanju podtipova raka pluća kod pacijenata Afroamerikanaca i muškaraca i podtipova raka dojke kod mlađih pacijenata. Modeli su također imali poteškoća u otkrivanju raka dojke, bubrega, štitnjače i želuca u određenim populacijama. Ove razlike u izvedbi pojavile su se u oko 29 posto dijagnostičkih zadataka koje su izvršili modeli.

Ova dijagnostička netočnost, rekao je Yu, je zato što ovi modeli izvlače demografske informacije iz slajdova - i oslanjaju se na demografske specifične obrasce za dijagnosticiranje.

Rezultati su bili neočekivani "jer bismo očekivali objektivnu procjenu patologije", dodao je Yu. "Kad procjenjujemo slike, ne moramo nužno znati demografiju pacijenta da bismo postavili dijagnozu."

Tim se pitao: Zašto patološka umjetna inteligencija nije pokazala istu objektivnost?

Tražite objašnjenja

Istraživači su došli do tri objašnjenja.

Budući da je pacijentima u određenim populacijama lakše dobiti uzorke, AI modeli se obučavaju na nejednakim veličinama uzoraka. To otežava modelima postavljanje točne dijagnoze u uzorcima koji nisu dobro zastupljeni u skupu za obuku, poput onih iz manjinskih skupina na temelju rase, dobi ili spola.

Ali "problem je bio puno dublji", rekao je Yu. Istraživači su primijetili da su modeli ponekad imali lošije rezultate u populacijskoj skupini, čak i kada su veličine uzorka bile usporedive.

Dodatnom analizom utvrđeno je da to može biti posljedica razlika u prevalenciji bolesti: neki su oblici raka češći u određenim skupinama, zbog čega su modeli bolji u postavljanju dijagnoze u tim skupinama. Kao rezultat toga, modeli mogu imati poteškoća u dijagnosticiranju karcinoma u populacijama u kojima nisu tako česti.

AI modeli također hvataju suptilne molekularne razlike u uzorcima iz različitih demografskih skupina. Na primjer, modeli mogu detektirati mutacije u genima pokretača raka i koristiti ih kao zamjenu za vrstu raka - i stoga su manje učinkoviti u postavljanju dijagnoze u populacijama gdje su te mutacije manje uobičajene.

"Otkrili smo da snaga umjetne inteligencije omogućuje razlikovanje mnogih nejasnih bioloških signala koji se ne mogu otkriti normalnom ljudskom interpretacijom", rekao je Yu.

To omogućuje modelima da potencijalno nauče signale koji su više povezani s demografijom nego bolesti. To bi zauzvrat moglo utjecati na njihove dijagnostičke sposobnosti u različitim skupinama.

Uzeto zajedno, kaže Yu, ova objašnjenja sugeriraju da pristranost u patološkoj umjetnoj inteligenciji ne dolazi samo od varijabilne kvalitete podataka o obuci, već i od načina na koji istraživači treniraju modele.

Pronađite rješenje

Nakon što su procijenili opseg i uzroke pristranosti, Yu i njegov tim krenuli su u rješavanje problema.

Istraživači su razvili FAIR-Path, jednostavan okvir temeljen na postojećem konceptu strojnog učenja koji se naziva kontrastivno učenje. Kontrastivno učenje dodaje element obuci umjetne inteligencije koji uči model da naglasi razlike između važnih kategorija - u ovom slučaju raka - i umanji razlike između manje važnih kategorija - u ovom slučaju demografskih skupina.

Kada su istraživači primijenili okvir FAIR-Path na modele koje su testirali, smanjio je dijagnostičke razlike za oko 88 posto.

"Pokazujemo da kroz ovu malu prilagodbu modeli mogu naučiti robusne značajke koje ih čine generaliziranijima i pravednijima među različitim populacijama", rekao je Yu.

Rezultat je ohrabrujući, dodao je, jer sugerira da se pristranosti mogu smanjiti čak i bez treniranja modela na potpuno poštenim, reprezentativnim podacima.

Zatim, Yu i njegov tim surađuju s institucijama diljem svijeta kako bi ispitali opseg pristranosti u patološkoj umjetnoj inteligenciji na lokacijama s različitim demografskim podacima i različitim kliničkim i patološkim praksama. Također istražuju načine proširivanja FAIR-Patha na postavke s ograničenom veličinom uzorka. Osim toga, žele ispitati kako pristranost u umjetnoj inteligenciji pridonosi demografskim razlikama u zdravstvenoj skrbi i ishodima pacijenata.

U konačnici, rekao je Yu, cilj je stvoriti poštene, nepristrane modele umjetne inteligencije patologije koji mogu poboljšati liječenje raka pomažući ljudskim patolozima da brzo i točno postave dijagnozu.

“Mislim da postoji nada da ako budemo svjesniji i pažljiviji u razvoju AI sustava, možemo razviti modele koji dobro funkcioniraju u bilo kojoj populaciji”, rekao je.


Izvori:

Journal reference:

Lin, S.-Y.,et al. (2025). Kontrastivno učenje povećava pravednost u patološkim sustavima umjetne inteligencije. Cell Reports Medicine. doi:10.1016/j.xcrm.2025.102527.  https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7