Študije kažejo, da toplotni zemljevidi vidnosti morda še niso pripravljeni za najboljši čas

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Modeli umetne inteligence, ki interpretirajo medicinske slike, obljubljajo izboljšanje sposobnosti zdravnikov za natančno in pravočasno postavljanje diagnoz, hkrati pa zmanjšajo delovno obremenitev, saj zaposlenim zdravnikom omogočajo, da se osredotočijo na kritične primere in rutinske naloge prenesejo na AI. Toda modeli AI, ki nimajo preglednosti glede tega, kako in zakaj je postavljena diagnoza, so lahko problematični. Ta nepregleden argument -; znan tudi kot "črna skrinjica" AI -; lahko zmanjša zdravnikovo zaupanje v zanesljivost orodja AI in tako odvrne njegovo uporabo. Zaradi tega pomanjkanja preglednosti bi zdravniki lahko spregledali razlago ...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Modeli umetne inteligence, ki interpretirajo medicinske slike, obljubljajo izboljšanje sposobnosti zdravnikov za natančno in pravočasno postavljanje diagnoz, hkrati pa zmanjšajo delovno obremenitev, saj zaposlenim zdravnikom omogočajo, da se osredotočijo na kritične primere in rutinske naloge prenesejo na AI. Toda modeli AI, ki nimajo preglednosti glede tega, kako in zakaj je postavljena diagnoza, so lahko problematični. Ta nepregleden argument -; znan tudi kot "črna skrinjica" AI -; lahko zmanjša zdravnikovo zaupanje v zanesljivost orodja AI in tako odvrne njegovo uporabo. Zaradi tega pomanjkanja preglednosti bi zdravniki lahko spregledali razlago ...

Študije kažejo, da toplotni zemljevidi vidnosti morda še niso pripravljeni za najboljši čas

Modeli umetne inteligence, ki interpretirajo medicinske slike, obljubljajo izboljšanje sposobnosti zdravnikov za natančno in pravočasno postavljanje diagnoz, hkrati pa zmanjšajo delovno obremenitev, saj zaposlenim zdravnikom omogočajo, da se osredotočijo na kritične primere in rutinske naloge prenesejo na AI.

Toda modeli AI, ki nimajo preglednosti glede tega, kako in zakaj je postavljena diagnoza, so lahko problematični. Ta nepregleden argument -; znan tudi kot "črna skrinjica" AI -; lahko zmanjša zdravnikovo zaupanje v zanesljivost orodja AI in tako odvrne njegovo uporabo. Zaradi tega pomanjkanja preglednosti bi zdravniki lahko tudi zaupali interpretaciji orodja.

Na področju medicinskega slikanja so bile ocene opaznosti način za ustvarjanje bolj razumljivih modelov umetne inteligence in demistificiranje odločanja v zvezi z umetno inteligenco -; Pristop, ki uporablja toplotne zemljevide za ugotavljanje, ali se orodje pravilno osredotoča samo na ustrezne dele dane slike ali cilja na nepomembne dele slike.

Toplotni zemljevidi delujejo tako, da poudarijo področja na sliki, ki so vplivala na interpretacijo modela AI. To bi lahko pomagalo človeškim zdravnikom odkriti, ali se model AI osredotoča na ista področja kot oni ali se nepravilno osredotoča na nepomembna mesta na sliki.

Toda nova študija, objavljena 10. oktobra v reviji Nature Machine Intelligence, kaže, da toplotni zemljevidi opaznosti kljub vsem svojim obljubam še niso pripravljeni za najboljšo uporabo.

Analiza, ki so jo vodili raziskovalec Harvardske medicinske šole Pranav Rajpurkar, Matthew Lungren s Stanforda in Adriel Saporta z univerze New York, je kvantificirala veljavnost sedmih široko uporabljenih metod poudarjanja, da bi ugotovila, kako zanesljivo in natančno lahko prepoznajo patologije, povezane z 10 pogosto diagnosticiranimi stanji, rentgensko sliko, kot so pljučne lezije, plevralni izlivi, edemi ali povečana srčni strukture. Za določitev učinkovitosti so raziskovalci primerjali učinkovitost orodij s človeško strokovno presojo.

Navsezadnje so bila orodja, ki so uporabljala izrazite toplotne zemljevide na podlagi toplotnih zemljevidov, dosledno slabša v primerjavi s človeškimi radiologi pri ocenjevanju slike in njihovi sposobnosti odkrivanja patoloških lezij.

Delo predstavlja prvo primerjalno analizo med zemljevidi vidnosti in učinkovitostjo človeških strokovnjakov pri ocenjevanju številnih radiografskih patologij. Študija zagotavlja tudi podrobno razumevanje, ali in kako lahko nekatere patološke značilnosti na sliki vplivajo na delovanje orodij AI.

Klinične prakse, ki uporabljajo AI za interpretacijo računalniško podprtih metod odkrivanja, kot orodje za zagotavljanje kakovosti že uporabljajo funkcijo zemljevida opaznosti, kot so: B. Branje rentgenskih slik prsnega koša. Toda glede na nove ugotovitve je treba to funkcijo po mnenju raziskovalcev uživati ​​previdno in z zdravo dozo skepticizma.

Naša analiza kaže, da zemljevidi opaznosti še niso dovolj zanesljivi za potrditev posameznih kliničnih odločitev, ki jih sprejme model AI. Ugotovili smo pomembne omejitve, ki povzročajo resne pomisleke glede varnosti uporabe v trenutni praksi.«

Pranav Rajpurkar, docent za biomedicinsko informatiko, HMS

Raziskovalci opozarjajo, da je treba zaradi pomembnih omejitev, ugotovljenih v študiji, toplotne zemljevide, ki temeljijo na opaznosti, še izboljšati, preden se široko uporabljajo v kliničnih modelih AI.

Celotna kodna zbirka, podatki in analiza ekipe so odprti in na voljo vsem, ki jih zanima raziskovanje tega pomembnega vidika kliničnega strojnega učenja v aplikacijah za medicinsko slikanje.

Vir:

Medicinska šola Harvard

Referenca:

Saporta, A., et al. (2022) Primerjalne metode opaznosti za interpretacijo radiografije prsnega koša. Narava-strojna inteligenca. doi.org/10.1038/s42256-022-00536-x.

.