Studie ukazují, že tepelné mapy význačnosti ještě nemusí být připraveny pro hlavní vysílací čas
Modely umělé inteligence, které interpretují lékařské snímky, slibují zlepšit schopnost lékařů provádět přesné a včasné diagnózy a zároveň snížit pracovní zátěž tím, že umožní vytíženým lékařům soustředit se na kritické případy a delegovat rutinní úkoly na AI. Ale modely umělé inteligence, které postrádají transparentnost v tom, jak a proč se provádí diagnóza, mohou být problematické. Tento neprůhledný argument -; také známý jako "Black Box" AI -; může snížit důvěru lékaře ve spolehlivost nástroje AI a tím odrazovat od jeho používání. Tento nedostatek transparentnosti by také mohl vést klinické lékaře k přehlížení výkladu...

Studie ukazují, že tepelné mapy význačnosti ještě nemusí být připraveny pro hlavní vysílací čas
Modely umělé inteligence, které interpretují lékařské snímky, slibují zlepšit schopnost lékařů provádět přesné a včasné diagnózy a zároveň snížit pracovní zátěž tím, že umožní vytíženým lékařům soustředit se na kritické případy a delegovat rutinní úkoly na AI.
Ale modely umělé inteligence, které postrádají transparentnost v tom, jak a proč se provádí diagnóza, mohou být problematické. Tento neprůhledný argument -; také známý jako "Black Box" AI -; může snížit důvěru lékaře ve spolehlivost nástroje AI a tím odrazovat od jeho používání. Tento nedostatek transparentnosti by také mohl vést k tomu, že lékaři budou důvěřovat interpretaci nástroje.
V oblasti lékařského zobrazování bylo hodnocení význačnosti způsobem, jak vytvořit srozumitelnější modely umělé inteligence a demystifikovat rozhodování o umělé inteligenci -; Přístup, který pomocí teplotních map určuje, zda nástroj správně zaostřuje pouze na relevantní části daného obrázku nebo cílí na jeho nepodstatné části.
Teplotní mapy fungují tak, že zvýrazňují oblasti na obrázku, které ovlivnily interpretaci modelu AI. To by mohlo pomoci lidským lékařům zjistit, zda se model umělé inteligence zaměřuje na stejné oblasti jako oni, nebo se nesprávně zaměřuje na nepodstatná místa na obrázku.
Ale nová studie zveřejněná 10. října v Nature Machine Intelligence ukazuje, že přes všechny sliby, význačné heatmapy ještě nejsou připraveny na hlavní vysílací čas.
Analýza vedená vyšetřovatelem z Harvardské lékařské fakulty Pranavem Rajpurkarem, Matthewem Lungrenem ze Stanfordu a Adrielem Saportou z New York University kvantifikovala platnost sedmi široce používaných metod zvýraznění, aby určila, jak spolehlivě a přesně mohou identifikovat patologie spojené s 10 běžně diagnostikovanými stavy rentgenovým snímkem, jako jsou plicní léze, pleurální výpotky nebo zvětšené srdeční struktury. K určení výkonu výzkumníci porovnávali výkon nástrojů s lidským odborným úsudkem.
Nakonec nástroje, které používaly význačné teplotní mapy založené na teplotních mapách, ve srovnání s lidskými radiology trvale nedosahovaly dostatečné výkonnosti při hodnocení snímků a jejich schopnosti detekovat patologické léze.
Práce představuje první komparativní analýzu mezi mapami výběžků a lidským expertním výkonem při hodnocení více radiografických patologií. Studie také poskytuje podrobné pochopení toho, zda a jak mohou určité patologické rysy na obrázku ovlivnit výkon nástrojů AI.
Funkce mapy význačnosti je již používána jako nástroj pro zajištění kvality v klinických praxích, které používají AI k interpretaci počítačově podporovaných metod detekce, jako jsou: B. Čtení rentgenových snímků hrudníku. S ohledem na nová zjištění je ale podle vědců třeba tuto funkci užívat opatrně a se zdravou dávkou skepse.
Naše analýza ukazuje, že mapy význačnosti ještě nejsou dostatečně spolehlivé, aby potvrdily jednotlivá klinická rozhodnutí učiněná pomocí modelu AI. Identifikovali jsme důležitá omezení, která při použití v současné praxi vyvolávají vážné obavy o bezpečnost.“
Pranav Rajpurkar, odborný asistent biomedicínské informatiky, HMS
Vědci varují, že kvůli důležitým omezením uvedeným ve studii by měly být teplotní mapy založené na význačnosti dále zpřesněny, než budou široce používány v klinických modelech AI.
Úplná kódová základna, data a analýzy týmu jsou otevřené a dostupné každému, kdo má zájem prozkoumat tento důležitý aspekt klinického strojového učení v aplikacích lékařského zobrazování.
Zdroj:
Odkaz:
Saporta, A., a kol. (2022) Srovnávací metody saliency pro interpretaci rentgenového snímku hrudníku. Inteligence příroda-stroj. doi.org/10.1038/s42256-022-00536-x.
.