Študije kažejo, da toplotni zemljevidi vidnosti morda še niso pripravljeni za najboljši čas
Modeli umetne inteligence, ki interpretirajo medicinske slike, obljubljajo izboljšanje sposobnosti zdravnikov za natančno in pravočasno postavljanje diagnoz, hkrati pa zmanjšajo delovno obremenitev, saj zaposlenim zdravnikom omogočajo, da se osredotočijo na kritične primere in rutinske naloge prenesejo na AI. Toda modeli AI, ki nimajo preglednosti glede tega, kako in zakaj je postavljena diagnoza, so lahko problematični. Ta nepregleden argument -; znan tudi kot "črna skrinjica" AI -; lahko zmanjša zdravnikovo zaupanje v zanesljivost orodja AI in tako odvrne njegovo uporabo. Zaradi tega pomanjkanja preglednosti bi zdravniki lahko spregledali razlago ...

Študije kažejo, da toplotni zemljevidi vidnosti morda še niso pripravljeni za najboljši čas
Modeli umetne inteligence, ki interpretirajo medicinske slike, obljubljajo izboljšanje sposobnosti zdravnikov za natančno in pravočasno postavljanje diagnoz, hkrati pa zmanjšajo delovno obremenitev, saj zaposlenim zdravnikom omogočajo, da se osredotočijo na kritične primere in rutinske naloge prenesejo na AI.
Toda modeli AI, ki nimajo preglednosti glede tega, kako in zakaj je postavljena diagnoza, so lahko problematični. Ta nepregleden argument -; znan tudi kot "črna skrinjica" AI -; lahko zmanjša zdravnikovo zaupanje v zanesljivost orodja AI in tako odvrne njegovo uporabo. Zaradi tega pomanjkanja preglednosti bi zdravniki lahko tudi zaupali interpretaciji orodja.
Na področju medicinskega slikanja so bile ocene opaznosti način za ustvarjanje bolj razumljivih modelov umetne inteligence in demistificiranje odločanja v zvezi z umetno inteligenco -; Pristop, ki uporablja toplotne zemljevide za ugotavljanje, ali se orodje pravilno osredotoča samo na ustrezne dele dane slike ali cilja na nepomembne dele slike.
Toplotni zemljevidi delujejo tako, da poudarijo področja na sliki, ki so vplivala na interpretacijo modela AI. To bi lahko pomagalo človeškim zdravnikom odkriti, ali se model AI osredotoča na ista področja kot oni ali se nepravilno osredotoča na nepomembna mesta na sliki.
Toda nova študija, objavljena 10. oktobra v reviji Nature Machine Intelligence, kaže, da toplotni zemljevidi opaznosti kljub vsem svojim obljubam še niso pripravljeni za najboljšo uporabo.
Analiza, ki so jo vodili raziskovalec Harvardske medicinske šole Pranav Rajpurkar, Matthew Lungren s Stanforda in Adriel Saporta z univerze New York, je kvantificirala veljavnost sedmih široko uporabljenih metod poudarjanja, da bi ugotovila, kako zanesljivo in natančno lahko prepoznajo patologije, povezane z 10 pogosto diagnosticiranimi stanji, rentgensko sliko, kot so pljučne lezije, plevralni izlivi, edemi ali povečana srčni strukture. Za določitev učinkovitosti so raziskovalci primerjali učinkovitost orodij s človeško strokovno presojo.
Navsezadnje so bila orodja, ki so uporabljala izrazite toplotne zemljevide na podlagi toplotnih zemljevidov, dosledno slabša v primerjavi s človeškimi radiologi pri ocenjevanju slike in njihovi sposobnosti odkrivanja patoloških lezij.
Delo predstavlja prvo primerjalno analizo med zemljevidi vidnosti in učinkovitostjo človeških strokovnjakov pri ocenjevanju številnih radiografskih patologij. Študija zagotavlja tudi podrobno razumevanje, ali in kako lahko nekatere patološke značilnosti na sliki vplivajo na delovanje orodij AI.
Klinične prakse, ki uporabljajo AI za interpretacijo računalniško podprtih metod odkrivanja, kot orodje za zagotavljanje kakovosti že uporabljajo funkcijo zemljevida opaznosti, kot so: B. Branje rentgenskih slik prsnega koša. Toda glede na nove ugotovitve je treba to funkcijo po mnenju raziskovalcev uživati previdno in z zdravo dozo skepticizma.
Naša analiza kaže, da zemljevidi opaznosti še niso dovolj zanesljivi za potrditev posameznih kliničnih odločitev, ki jih sprejme model AI. Ugotovili smo pomembne omejitve, ki povzročajo resne pomisleke glede varnosti uporabe v trenutni praksi.«
Pranav Rajpurkar, docent za biomedicinsko informatiko, HMS
Raziskovalci opozarjajo, da je treba zaradi pomembnih omejitev, ugotovljenih v študiji, toplotne zemljevide, ki temeljijo na opaznosti, še izboljšati, preden se široko uporabljajo v kliničnih modelih AI.
Celotna kodna zbirka, podatki in analiza ekipe so odprti in na voljo vsem, ki jih zanima raziskovanje tega pomembnega vidika kliničnega strojnega učenja v aplikacijah za medicinsko slikanje.
Vir:
Referenca:
Saporta, A., et al. (2022) Primerjalne metode opaznosti za interpretacijo radiografije prsnega koša. Narava-strojna inteligenca. doi.org/10.1038/s42256-022-00536-x.
.