Patologijos AI modeliai atskleidžia demografinius vėžio diagnozavimo paklaidas

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Patologija ilgą laiką buvo vėžio diagnostikos ir gydymo kertinis akmuo. Patologas mikroskopu atidžiai ištiria itin ploną žmogaus audinio atkarpą, ieškodamas užuominų, rodančių vėžio buvimą, tipą ir stadiją. Žmonių ekspertui žiūrėti į besisukantį rausvą audinio mėginį, išmargintą purpurinėmis ląstelėmis, yra...

Patologijos AI modeliai atskleidžia demografinius vėžio diagnozavimo paklaidas

Patologija ilgą laiką buvo vėžio diagnostikos ir gydymo kertinis akmuo. Patologas mikroskopu atidžiai ištiria itin ploną žmogaus audinio atkarpą, ieškodamas užuominų, rodančių vėžio buvimą, tipą ir stadiją.

Žmonių ekspertui žiūrėti į besisukantį rausvą audinio pavyzdį, išmargintą purpurinėmis ląstelėmis, prilygsta vertinti egzaminą be pavadinimo – skaidrė atskleidžia esminę informaciją apie ligą, nepateikdama papildomos informacijos apie pacientą.

Tačiau tas pats nebūtinai galioja pastaraisiais metais atsiradusiems dirbtinio intelekto modeliams patologijoje. Naujas tyrimas, kuriam vadovavo Harvardo medicinos mokyklos komanda, rodo, kad šie modeliai gali kažkaip gauti demografinę informaciją iš patologijos skaidres, todėl skirtingose ​​​​populiacijose gali atsirasti vėžio diagnozės šališkumas.

Analizuodami keletą pagrindinių patologinių AI modelių, skirtų vėžio diagnozei, mokslininkai nustatė nevienodus rezultatus nustatant ir diferencijuojant vėžį įvairiose populiacijose, atsižvelgiant į pacientų lytį, rasę ir amžių. Jie nustatė keletą galimų šio demografinio šališkumo paaiškinimų.

Tada komanda sukūrė sistemą, pavadintą FAIR-Path, kuri padėjo sumažinti modelių šališkumą.

Demografinių duomenų skaitymas iš patologijos skaidrės laikomas „neįmanoma misija“ žmogaus patologui, todėl patologijos AI šališkumas mums buvo netikėtas.

Kun-Hsing Yu, vyresnysis autorius, biomedicininės informatikos docentas, Blavatnik institutas HMS ir HMS patologijos docentas Brigham ir moterų ligoninėje

Yu sakė, kad aptikti ir kovoti su AI šališkumu medicinoje, nes tai gali turėti įtakos diagnostikos tikslumui ir pacientų rezultatams. „FAIR-Path“ sėkmė rodo, kad mokslininkai gali pagerinti AI modelių teisingumą vėžio patologijos ir galbūt kitų AI modelių medicinoje su minimaliomis pastangomis.

Darbas, iš dalies remiamas federaliniu finansavimu, aprašytas gruodžio 16 dLąstelių ataskaitų medicina.

Patikrinkite, ar nėra šališkumo

Yu ir jo komanda išnagrinėjo keturių standartinių AI patologijos modelių, sukurtų vėžio įvertinimui, šališkumą. Šie gilaus mokymosi modeliai buvo mokomi anotuotų patologijos skaidrių rinkiniuose, iš kurių jie „išmoko“ biologinius modelius, leidžiančius analizuoti naujas skaidres ir nustatyti diagnozes.

Tyrėjai AI modelius aprūpino dideliu tarpinstituciniu patologijos skaidrių archyvu iš 20 vėžio rūšių.

Jie nustatė, kad visų keturių modelių veikimas buvo iškreiptas ir tam tikrų grupių pacientams buvo nustatytos ne tokios tikslios diagnozės, atsižvelgiant į jų rasę, lytį ir amžių. Pavyzdžiui, modeliams buvo sunku atskirti plaučių vėžio potipius afroamerikiečių ir vyrų pacientams bei krūties vėžio potipius jaunesniems pacientams. Modeliams taip pat buvo sunku nustatyti krūties, inkstų, skydliaukės ir skrandžio vėžį tam tikrose populiacijose. Šie našumo skirtumai pasireiškė maždaug 29 procentuose modelių atliktų diagnostinių užduočių.

Yu sakė, kad šis diagnostinis netikslumas yra dėl to, kad šie modeliai iš skaidrių išskiria demografinę informaciją ir diagnozuodami remiasi konkrečiais demografiniais modeliais.

Rezultatai buvo netikėti, „nes tikėjomės objektyvaus patologijos įvertinimo“, - pridūrė Yu. „Vertinant vaizdus, ​​nebūtinai turime žinoti paciento demografinius rodiklius, kad galėtume nustatyti diagnozę.

Komanda stebėjosi: kodėl patologinis AI neparodė tokio paties objektyvumo?

Ieško paaiškinimų

Tyrėjai pateikė tris paaiškinimus.

Kadangi tam tikrose populiacijose pacientams lengviau gauti mėginius, AI modeliai mokomi nevienodo imties dydžio. Dėl to modeliams sunkiau nustatyti tikslią diagnozę mėginiuose, kurie nėra gerai atstovaujami mokymo rinkinyje, pvz., mažumų grupių pagal rasę, amžių ar lytį.

Tačiau „problema buvo daug gilesnė“, - sakė Yu. Tyrėjai pastebėjo, kad modeliai kartais buvo blogesni gyventojų grupėje, net jei imties dydžiai buvo palyginami.

Papildoma analizė parodė, kad tai gali būti dėl ligų paplitimo skirtumų: kai kurios vėžio rūšys yra dažnesnės tam tikrose grupėse, todėl modeliai geriau nustato diagnozę tose grupėse. Dėl to modeliams gali būti sunku diagnozuoti vėžį populiacijose, kuriose jie nėra tokie dažni.

AI modeliai taip pat užfiksuoja subtilius skirtingų demografinių grupių mėginių molekulinius skirtumus. Pavyzdžiui, modeliai gali aptikti vėžį sukeliančių genų mutacijas ir naudoti juos kaip vėžio tipo pavyzdį, todėl yra mažiau veiksmingi nustatant diagnozę populiacijose, kuriose šios mutacijos yra retesnės.

„Mes nustatėme, kad dirbtinio intelekto galia leidžia atskirti daug neaiškių biologinių signalų, kurių neįmanoma aptikti įprastu žmogaus aiškinimu“, – sakė Yu.

Tai leidžia modeliams potencialiai sužinoti signalus, kurie labiau susiję su demografija nei liga. Tai savo ruožtu gali paveikti jų diagnostinius gebėjimus visose grupėse.

Apibendrinant, Yu sako, šie paaiškinimai rodo, kad patologijos AI šališkumas atsiranda ne tik dėl kintamos mokymo duomenų kokybės, bet ir dėl to, kaip mokslininkai rengia modelius.

Rasti sprendimą

Įvertinę šališkumo mastą ir priežastis, Yu ir jo komanda nusprendė išspręsti problemą.

Tyrėjai sukūrė FAIR-Path – paprastą sistemą, pagrįstą esama mašininio mokymosi koncepcija, vadinama kontrastiniu mokymusi. Kontrastinis mokymasis prideda prie AI mokymo elementą, kuris moko modelį pabrėžti svarbių kategorijų – šiuo atveju vėžio – skirtumus ir sumenkinti skirtumus tarp mažiau svarbių kategorijų – šiuo atveju demografinių grupių.

Kai tyrėjai išbandytuose modeliuose pritaikė FAIR-Path sistemą, diagnostikos skirtumai sumažėjo maždaug 88 procentais.

„Mes parodome, kad atlikę šį nedidelį koregavimą modeliai gali išmokti tvirtų savybių, dėl kurių jie yra labiau apibendrinami ir teisingesni įvairiose populiacijose“, - sakė Yu.

Jis pridūrė, kad rezultatas yra džiuginantis, nes tai rodo, kad šališkumą galima sumažinti net ir nerengiant modelių visiškai teisingais, reprezentatyviais duomenimis.

Tada Yu ir jo komanda bendradarbiauja su institucijomis visame pasaulyje, kad ištirtų patologinio AI šališkumo mastą skirtingose ​​demografinėse ir skirtingos klinikinės bei patologijos praktikos vietose. Jie taip pat tiria būdus, kaip išplėsti FAIR-Path nustatymą su riboto imties dydžiu. Be to, jie nori ištirti, kaip AI šališkumas prisideda prie demografinių sveikatos priežiūros ir pacientų rezultatų skirtumų.

Galiausiai Yu sakė, kad tikslas yra sukurti sąžiningus, nešališkus patologijos AI modelius, kurie galėtų pagerinti vėžio gydymą, padėdami žmogaus patologams greitai ir tiksliai nustatyti diagnozę.

„Manau, kad yra vilties, kad jei būsime sąmoningesni ir atsargesni kurdami AI sistemas, galėsime sukurti modelius, kurie gerai veiktų bet kurioje populiacijoje“, – sakė jis.


Šaltiniai:

Journal reference:

Linas, S.-Y.,ir kt. (2025). Kontrastinis mokymasis padidina patologijos dirbtinio intelekto sistemų teisingumą. Ląstelių ataskaitų medicina. doi:10.1016/j.xcrm.2025.102527.  https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7