Studie ukazují, že tepelné mapy význačnosti ještě nemusí být připraveny pro hlavní vysílací čas

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Modely umělé inteligence, které interpretují lékařské snímky, slibují zlepšit schopnost lékařů provádět přesné a včasné diagnózy a zároveň snížit pracovní zátěž tím, že umožní vytíženým lékařům soustředit se na kritické případy a delegovat rutinní úkoly na AI. Ale modely umělé inteligence, které postrádají transparentnost v tom, jak a proč se provádí diagnóza, mohou být problematické. Tento neprůhledný argument -; také známý jako "Black Box" AI -; může snížit důvěru lékaře ve spolehlivost nástroje AI a tím odrazovat od jeho používání. Tento nedostatek transparentnosti by také mohl vést klinické lékaře k přehlížení výkladu...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Modely umělé inteligence, které interpretují lékařské snímky, slibují zlepšit schopnost lékařů provádět přesné a včasné diagnózy a zároveň snížit pracovní zátěž tím, že umožní vytíženým lékařům soustředit se na kritické případy a delegovat rutinní úkoly na AI. Ale modely umělé inteligence, které postrádají transparentnost v tom, jak a proč se provádí diagnóza, mohou být problematické. Tento neprůhledný argument -; také známý jako "Black Box" AI -; může snížit důvěru lékaře ve spolehlivost nástroje AI a tím odrazovat od jeho používání. Tento nedostatek transparentnosti by také mohl vést klinické lékaře k přehlížení výkladu...

Studie ukazují, že tepelné mapy význačnosti ještě nemusí být připraveny pro hlavní vysílací čas

Modely umělé inteligence, které interpretují lékařské snímky, slibují zlepšit schopnost lékařů provádět přesné a včasné diagnózy a zároveň snížit pracovní zátěž tím, že umožní vytíženým lékařům soustředit se na kritické případy a delegovat rutinní úkoly na AI.

Ale modely umělé inteligence, které postrádají transparentnost v tom, jak a proč se provádí diagnóza, mohou být problematické. Tento neprůhledný argument -; také známý jako "Black Box" AI -; může snížit důvěru lékaře ve spolehlivost nástroje AI a tím odrazovat od jeho používání. Tento nedostatek transparentnosti by také mohl vést k tomu, že lékaři budou důvěřovat interpretaci nástroje.

V oblasti lékařského zobrazování bylo hodnocení význačnosti způsobem, jak vytvořit srozumitelnější modely umělé inteligence a demystifikovat rozhodování o umělé inteligenci -; Přístup, který pomocí teplotních map určuje, zda nástroj správně zaostřuje pouze na relevantní části daného obrázku nebo cílí na jeho nepodstatné části.

Teplotní mapy fungují tak, že zvýrazňují oblasti na obrázku, které ovlivnily interpretaci modelu AI. To by mohlo pomoci lidským lékařům zjistit, zda se model umělé inteligence zaměřuje na stejné oblasti jako oni, nebo se nesprávně zaměřuje na nepodstatná místa na obrázku.

Ale nová studie zveřejněná 10. října v Nature Machine Intelligence ukazuje, že přes všechny sliby, význačné heatmapy ještě nejsou připraveny na hlavní vysílací čas.

Analýza vedená vyšetřovatelem z Harvardské lékařské fakulty Pranavem Rajpurkarem, Matthewem Lungrenem ze Stanfordu a Adrielem Saportou z New York University kvantifikovala platnost sedmi široce používaných metod zvýraznění, aby určila, jak spolehlivě a přesně mohou identifikovat patologie spojené s 10 běžně diagnostikovanými stavy rentgenovým snímkem, jako jsou plicní léze, pleurální výpotky nebo zvětšené srdeční struktury. K určení výkonu výzkumníci porovnávali výkon nástrojů s lidským odborným úsudkem.

Nakonec nástroje, které používaly význačné teplotní mapy založené na teplotních mapách, ve srovnání s lidskými radiology trvale nedosahovaly dostatečné výkonnosti při hodnocení snímků a jejich schopnosti detekovat patologické léze.

Práce představuje první komparativní analýzu mezi mapami výběžků a lidským expertním výkonem při hodnocení více radiografických patologií. Studie také poskytuje podrobné pochopení toho, zda a jak mohou určité patologické rysy na obrázku ovlivnit výkon nástrojů AI.

Funkce mapy význačnosti je již používána jako nástroj pro zajištění kvality v klinických praxích, které používají AI k interpretaci počítačově podporovaných metod detekce, jako jsou: B. Čtení rentgenových snímků hrudníku. S ohledem na nová zjištění je ale podle vědců třeba tuto funkci užívat opatrně a se zdravou dávkou skepse.

Naše analýza ukazuje, že mapy význačnosti ještě nejsou dostatečně spolehlivé, aby potvrdily jednotlivá klinická rozhodnutí učiněná pomocí modelu AI. Identifikovali jsme důležitá omezení, která při použití v současné praxi vyvolávají vážné obavy o bezpečnost.“

Pranav Rajpurkar, odborný asistent biomedicínské informatiky, HMS

Vědci varují, že kvůli důležitým omezením uvedeným ve studii by měly být teplotní mapy založené na význačnosti dále zpřesněny, než budou široce používány v klinických modelech AI.

Úplná kódová základna, data a analýzy týmu jsou otevřené a dostupné každému, kdo má zájem prozkoumat tento důležitý aspekt klinického strojového učení v aplikacích lékařského zobrazování.

Zdroj:

Harvardská lékařská škola

Odkaz:

Saporta, A., a kol. (2022) Srovnávací metody saliency pro interpretaci rentgenového snímku hrudníku. Inteligence příroda-stroj. doi.org/10.1038/s42256-022-00536-x.

.