A patológiás mesterséges intelligencia modellek demográfiai torzításokat tárnak fel a rákdiagnosztikában
A patológia régóta a rák diagnózisának és kezelésének sarokköve. A patológus mikroszkóp alatt alaposan megvizsgálja az emberi szövet ultravékony metszetét, hogy megtalálja a rák jelenlétét, típusát és stádiumát jelző nyomokat. Egy humán szakértő számára egy lila sejtekkel tarkított, kavargó rózsaszín szövetminta megtekintése...
A patológiás mesterséges intelligencia modellek demográfiai torzításokat tárnak fel a rákdiagnosztikában
A patológia régóta a rák diagnózisának és kezelésének sarokköve. A patológus mikroszkóp alatt alaposan megvizsgálja az emberi szövet ultravékony metszetét, hogy megtalálja a rák jelenlétét, típusát és stádiumát jelző nyomokat.
Egy humán szakértő számára egy lila sejtekkel tarkított, kavargó rózsaszín szövetminta megtekintése olyan, mintha név nélkül értékelne egy vizsgát – a dia lényeges információkat tár fel a betegségről anélkül, hogy további részleteket közölne a páciensről.
Ugyanez azonban nem feltétlenül vonatkozik a mesterséges intelligencia patológiában az elmúlt években megjelent modelljeire. A Harvard Medical School egyik csapata által vezetett új tanulmány azt mutatja, hogy ezek a modellek valamilyen módon demográfiai információkra következtethetnek a patológia tárgylemezeiből, ami a rákdiagnózis torzulásához vezet a különböző populációkban.
A rákdiagnózis több fő patológiás mesterséges intelligencia-modelljének elemzésével a kutatók egyenlőtlen teljesítményt találtak a rákos megbetegedések kimutatása és megkülönböztetése terén a különböző populációkban a betegek neme, rassz és életkora alapján. Számos lehetséges magyarázatot azonosítottak ennek a demográfiai torzításnak.
A csapat ezután kifejlesztett egy FAIR-Path nevű keretrendszert, amely segített csökkenteni a modellek torzítását.
A demográfiai adatok leolvasása egy patológiai tárgylemezről „lehetetlen küldetésnek” számít egy humán patológus számára, ezért a patológiás mesterséges intelligencia torzítása meglepetés volt számunkra.”
Kun-Hsing Yu, vezető szerző, az orvosbiológiai informatika docense, a HMS Blavatnik Intézete és a HMS patológia adjunktusa a Brigham and Women's Hospitalban
A mesterséges intelligencia torzításának észlelése és leküzdése az orvostudományban kritikus fontosságú, mert hatással lehet a diagnosztikai pontosságra és a betegek kimenetelére is, mondta Yu. A FAIR-Path sikere azt mutatja, hogy a kutatók minimális erőfeszítéssel javíthatják az AI-modellek méltányosságát a rákpatológia és potenciálisan más mesterséges intelligencia modellek esetében az orvostudományban.
A részben szövetségi támogatással támogatott munkát december 16-án ismertetikSejtjelentések Medicine.
Ellenőrizze az elfogultságot
Yu és csapata négy szabványos mesterséges intelligencia-patológiai modellben vizsgálta a torzítást, amelyet a rák felmérésére fejlesztettek ki. Ezeket a mélytanulási modelleket annotált patológiás diasorozatokon képezték ki, amelyekből olyan biológiai mintákat „tanultak meg”, amelyek lehetővé teszik számukra az új lemezek elemzését és diagnózisok felállítását.
A kutatók a mesterséges intelligencia-modelleket egy nagy, intézményközi archívummal látták el 20 ráktípus patológiás tárgylemezeiből.
Azt találták, hogy mind a négy modell torz teljesítményt mutatott, és kevésbé pontos diagnózist adott bizonyos csoportokba tartozó betegek számára a saját bevallásuk szerinti rassz, nem és életkor alapján. Például a modellek nehezen tudtak megkülönböztetni a tüdőrák altípusait afro-amerikai és férfi betegekben, valamint a mellrák altípusait fiatalabb betegekben. A modelleknek nehézséget okozott az emlő-, vese-, pajzsmirigy- és gyomorrák kimutatása is bizonyos populációkban. Ezek a teljesítménybeli különbségek a modellek által végzett diagnosztikai feladatok körülbelül 29 százalékában jelentkeztek.
Yu szerint ez a diagnosztikai pontatlanság azért van, mert ezek a modellek demográfiai információkat nyernek ki a diákból – és demográfiai specifikus mintákra támaszkodnak a diagnózis során.
Az eredmények váratlanok voltak, „mert objektív patológiai értékelést várnánk” – tette hozzá Yu. "A képek kiértékelésekor nem feltétlenül kell ismernünk a páciens demográfiai adatait a diagnózis felállításához."
A csapat azon töprengett: Miért nem mutatott ugyanilyen objektivitást a patológiai mesterséges intelligencia?
Magyarázatokat keres
A kutatók három magyarázattal álltak elő.
Mivel bizonyos populációkban a betegek könnyebben tudnak mintát venni, az AI-modellek egyenlőtlen mintaméretekre vannak kiképezve. Ez megnehezíti a modellek számára a pontos diagnózis felállítását azokban a mintákban, amelyek nem szerepelnek megfelelően a képzési halmazban, például a kisebbségi csoportokból származó faji, életkor vagy nem alapján.
De "a probléma sokkal mélyebb volt" - mondta Yu. A kutatók észrevették, hogy a modellek néha rosszabbul teljesítettek egy populációcsoportban, még akkor is, ha a minta mérete összehasonlítható volt.
A további elemzések megállapították, hogy ennek oka lehet a betegségek előfordulásának különbsége: egyes rákos megbetegedések gyakrabban fordulnak elő bizonyos csoportokban, így a modellek jobbak a diagnózis felállításában ezekben a csoportokban. Ennek eredményeként a modelleknek nehézséget okozhat a rákos megbetegedések diagnosztizálása olyan populációkban, ahol nem olyan gyakoriak.
Az AI-modellek a különböző demográfiai csoportokból származó minták finom molekuláris különbségeit is rögzítik. A modellek például képesek kimutatni a rákos megbetegedést okozó gének mutációit, és a rák típusának proxijaként használhatják őket – ezért kevésbé hatékonyak a diagnózis felállításában azokban a populációkban, ahol ezek a mutációk kevésbé gyakoriak.
"Azt találtuk, hogy az AI ereje lehetővé teszi számos tisztázatlan biológiai jel megkülönböztetését, amelyek normál emberi értelmezéssel nem észlelhetők" - mondta Yu.
Ez lehetővé teszi a modellek számára, hogy olyan jeleket tanuljanak meg, amelyek inkább a demográfiai adatokhoz kapcsolódnak, mint a betegségekhez. Ez viszont hatással lehet diagnosztikai képességeikre a csoportok között.
Yu szerint ezek a magyarázatok azt sugallják, hogy a patológiás mesterséges intelligencia torzítása nemcsak a képzési adatok változó minőségéből adódik, hanem abból is, ahogyan a kutatók a modelleket képezik.
Találj megoldást
Az elfogultság mértékének és okainak felmérése után Yu és csapata nekiláttak a probléma megoldásának.
A kutatók kifejlesztették a FAIR-Path-et, egy egyszerű keretrendszert, amely egy meglévő gépi tanulási koncepción, az úgynevezett kontrasztív tanuláson alapul. A kontrasztív tanulás egy olyan elemet ad az AI-képzéshez, amely megtanítja a modellt a fontos kategóriák – jelen esetben a rákos megbetegedések – közötti különbségek hangsúlyozására, és a kevésbé fontos kategóriák – jelen esetben a demográfiai csoportok – közötti különbségek csökkentésére.
Amikor a kutatók a FAIR-Path keretrendszert alkalmazták az általuk tesztelt modelleken, az körülbelül 88 százalékkal csökkentette a diagnosztikai különbségeket.
"Megmutatjuk, hogy ezzel a kis módosítással a modellek olyan robusztus funkciókat tanulhatnak meg, amelyek általánosabbá és igazságosabbá teszik őket a különböző populációk között" - mondta Yu.
Az eredmény biztató – tette hozzá –, mert azt sugallja, hogy a torzítások a modellek teljesen korrekt, reprezentatív adatokra való képzése nélkül is csökkenthetők.
Ezt követően Yu és csapata a világ intézményeivel együttműködve vizsgálja meg a patológiás mesterséges intelligencia torzításának mértékét különböző demográfiai jellemzőkkel és eltérő klinikai és patológiai gyakorlatokkal rendelkező helyeken. Azt is vizsgálják, hogyan lehet kiterjeszteni a FAIR-Path-t korlátozott mintamérettel rendelkező beállításokra. Ezenkívül meg akarják vizsgálni, hogy a mesterséges intelligencia torzítása hogyan járul hozzá az egészségügyi ellátás és a betegek kimenetelének demográfiai eltéréseihez.
Végső soron Yu elmondta, hogy a cél olyan tisztességes, elfogulatlan patológiai mesterséges intelligencia modellek létrehozása, amelyek javíthatják a rák kezelését azáltal, hogy segítik a humán patológusokat a gyors és pontos diagnózis felállításában.
„Úgy gondolom, van remény arra, hogy ha tudatosabbak és körültekintőbbek vagyunk az AI-rendszerek fejlesztése során, akkor olyan modelleket fejleszthetünk ki, amelyek bármely populációban jól működnek” – mondta.
Források:
Lin, S.-Y.,et al. (2025). A kontrasztos tanulás növeli a méltányosságot a patológiás mesterséges intelligencia rendszerekben. Sejtjelentések Medicine. doi:10.1016/j.xcrm.2025.102527. https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7