Patološki modeli umetne inteligence razkrivajo demografske pristranskosti pri diagnozi raka
Patologija je že dolgo temelj diagnostike in zdravljenja raka. Patolog pod mikroskopom skrbno pregleda ultratanek del človeškega tkiva, da bi ugotovil prisotnost, vrsto in stopnjo raka. Za človeškega strokovnjaka je pogled na vrtinčast rožnat vzorec tkiva, posejan z vijoličnimi celicami, ...
Patološki modeli umetne inteligence razkrivajo demografske pristranskosti pri diagnozi raka
Patologija je že dolgo temelj diagnostike in zdravljenja raka. Patolog pod mikroskopom skrbno pregleda ultratanek del človeškega tkiva, da bi ugotovil prisotnost, vrsto in stopnjo raka.
Za človeškega strokovnjaka je pogled na vrtinčast rožnat vzorec tkiva, posejan z vijoličnimi celicami, kot ocenjevanje izpita brez imena – prosojnica razkrije bistvene informacije o bolezni, ne da bi zagotovila dodatne podrobnosti o bolniku.
Vendar to ne velja nujno za modele umetne inteligence v patologiji, ki so se pojavili v zadnjih letih. Nova študija, ki jo je vodila skupina na medicinski šoli Harvard, kaže, da lahko ti modeli nekako sklepajo o demografskih informacijah iz diapozitivov patologije, kar vodi do pristranskosti diagnoze raka pri različnih populacijah.
Z analizo več glavnih patoloških modelov umetne inteligence za diagnozo raka so raziskovalci ugotovili neenako učinkovitost pri odkrivanju in razlikovanju rakavih obolenj v različnih populacijah na podlagi bolnikovega spola, rase in starosti. Ugotovili so več možnih razlag za to demografsko pristranskost.
Ekipa je nato razvila okvir, imenovan FAIR-Path, ki je pomagal zmanjšati pristranskost v modelih.
Branje demografskih podatkov s patološkega diapozitiva velja za "misijo nemogoče" za človeškega patologa, zato je bila pristranskost patološke umetne inteligence za nas presenečenje.
Kun-Hsing Yu, višji avtor, izredni profesor biomedicinske informatike, Inštitut Blavatnik pri HMS in docent HMS za patologijo v Brigham and Women's Hospital
Odkrivanje in boj proti pristranskosti umetne inteligence v medicini je ključnega pomena, ker lahko vpliva na diagnostično natančnost in tudi na rezultate bolnikov, je dejal Yu. Uspeh FAIR-Path kaže, da lahko raziskovalci izboljšajo poštenost modelov AI za patologijo raka in potencialno drugih modelov AI v medicini z minimalnim naporom.
Delo, ki ga delno podpira zvezno financiranje, je opisano 16. decembra vCell Reports Medicine.
Preverite pristranskost
Yu in njegova ekipa sta preučila pristranskost v štirih standardnih patoloških modelih umetne inteligence, razvitih za oceno raka. Ti modeli globokega učenja so bili usposobljeni na sklopih označenih patoloških diapozitivov, iz katerih so se »naučili« bioloških vzorcev, ki jim omogočajo analizo novih diapozitivov in postavljanje diagnoz.
Raziskovalci so modele AI nahranili z velikim medinstitucionalnim arhivom patoloških diapozitivov 20 vrst raka.
Ugotovili so, da so imeli vsi štirje modeli izkrivljeno delovanje in so zagotovili manj natančne diagnoze za paciente v določenih skupinah na podlagi rase, spola in starosti, o katerih so poročali sami. Na primer, modeli so imeli težave pri razlikovanju podtipov pljučnega raka pri afroameriških in moških bolnikih ter podtipov raka dojke pri mlajših bolnikih. Modeli so imeli tudi težave pri odkrivanju raka dojke, ledvic, ščitnice in želodca pri določenih populacijah. Te razlike v zmogljivosti so se pojavile pri približno 29 odstotkih diagnostičnih nalog, ki so jih izvedli modeli.
Ta diagnostična netočnost, je dejal Yu, je zato, ker ti modeli izvlečejo demografske informacije iz diapozitivov - in se pri diagnosticiranju zanašajo na demografsko specifične vzorce.
Rezultati so bili nepričakovani, "ker bi pričakovali objektivno oceno patologije," je dodal Yu. "Pri ocenjevanju slik nam ni nujno, da poznamo pacientovo demografijo, da bi postavili diagnozo."
Ekipa se je spraševala: Zakaj patološka umetna inteligenca ni pokazala enake objektivnosti?
Iskanje razlag
Raziskovalci so prišli do treh razlag.
Ker je bolnikom v določenih populacijah lažje pridobiti vzorce, se modeli AI učijo na neenakih velikostih vzorcev. Zaradi tega modeli težje postavijo natančno diagnozo v vzorcih, ki niso dobro zastopani v učnem nizu, kot so tisti iz manjšinskih skupin na podlagi rase, starosti ali spola.
Toda "problem je bil veliko globlji," je dejal Yu. Raziskovalci so opazili, da so bili modeli včasih slabši v populacijski skupini, tudi če so bile velikosti vzorcev primerljive.
Dodatna analiza je pokazala, da je to lahko posledica razlik v razširjenosti bolezni: nekateri raki so pogostejši v določenih skupinah, zaradi česar so modeli boljši pri postavljanju diagnoze v teh skupinah. Posledično imajo lahko modeli težave pri diagnosticiranju raka v populacijah, kjer niso tako pogosti.
Modeli AI zajamejo tudi subtilne molekularne razlike v vzorcih iz različnih demografskih skupin. Modeli lahko na primer zaznajo mutacije v genih, ki povzročajo raka, in jih uporabijo kot približek za vrsto raka – in so zato manj učinkoviti pri postavljanju diagnoze v populacijah, kjer so te mutacije manj pogoste.
"Ugotovili smo, da moč umetne inteligence omogoča razlikovanje številnih nejasnih bioloških signalov, ki jih ni mogoče zaznati z običajno človeško interpretacijo," je dejal Yu.
To omogoča modelom, da se potencialno naučijo signalov, ki so bolj povezani z demografijo kot z boleznijo. To pa bi lahko vplivalo na njihove diagnostične sposobnosti v skupinah.
Yu pravi, da te razlage skupaj kažejo, da pristranskost v patološki umetni inteligenci ne izvira le iz spremenljive kakovosti podatkov o usposabljanju, ampak tudi iz načina, kako raziskovalci usposabljajo modele.
Poiščite rešitev
Po oceni obsega in vzrokov pristranskosti sta se Yu in njegova ekipa odpravila odpraviti težavo.
Raziskovalci so razvili FAIR-Path, preprost okvir, ki temelji na obstoječem konceptu strojnega učenja, imenovanem kontrastno učenje. Kontrastivno učenje doda element k usposabljanju z umetno inteligenco, ki uči model, da poudari razlike med pomembnimi kategorijami - v tem primeru raki - in zmanjša razlike med manj pomembnimi kategorijami - v tem primeru demografskimi skupinami.
Ko so raziskovalci uporabili ogrodje FAIR-Path na modelih, ki so jih testirali, so diagnostične razlike zmanjšali za približno 88 odstotkov.
"Pokažemo, da se lahko s to majhno prilagoditvijo modeli naučijo robustnih funkcij, zaradi katerih so bolj posplošljivi in pravični med različnimi populacijami," je dejal Yu.
Rezultat je spodbuden, je dodal, ker nakazuje, da je mogoče pristranskosti zmanjšati tudi brez usposabljanja modelov na popolnoma poštenih, reprezentativnih podatkih.
Nato Yu in njegova ekipa sodelujeta z institucijami po vsem svetu, da bi preučili obseg pristranskosti v patološki umetni inteligenci na lokacijah z različnimi demografskimi podatki ter različnimi kliničnimi in patološkimi praksami. Raziskujejo tudi načine za razširitev FAIR-Path na nastavitve z omejenimi velikostmi vzorcev. Poleg tega želijo preučiti, kako pristranskost v umetni inteligenci prispeva k demografskim razlikam v zdravstveni oskrbi in rezultatih bolnikov.
Nazadnje je dejal Yu, da je cilj ustvariti poštene, nepristranske patološke modele umetne inteligence, ki lahko izboljšajo zdravljenje raka tako, da pomagajo človeškim patologom hitro in natančno postaviti diagnozo.
"Mislim, da obstaja upanje, da lahko, če smo bolj zavestni in previdni pri razvoju sistemov umetne inteligence, razvijemo modele, ki dobro delujejo v kateri koli populaciji," je dejal.
Viri:
Lin, S.-Y.,et al. (2025). Kontrastivno učenje povečuje pravičnost v patoloških sistemih umetne inteligence. Cell Reports Medicine. doi:10.1016/j.xcrm.2025.102527. https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7