A tanulmányok azt mutatják, hogy a kiemelkedő hőtérképek még nem állnak készen a főműsoridőre

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Az orvosi képeket értelmező mesterséges intelligencia modellek azt ígérik, hogy javítják a klinikusok azon képességét, hogy pontos és időben diagnosztizáljanak, miközben csökkentik a munkaterhelést azáltal, hogy lehetővé teszik az elfoglalt orvosok számára, hogy a kritikus esetekre összpontosítsanak, és rutinfeladatokat ruházzanak át az MI-re. Az olyan mesterséges intelligencia modellek azonban problémát okozhatnak, amelyek nem mutatják át a diagnózis felállításának módját és miértjét. Ez az átláthatatlan érv -; más néven „Black Box” AI -; csökkentheti az orvosnak az AI-eszköz megbízhatóságába vetett bizalmát, és így elriaszthatja annak használatát. Az átláthatóság hiánya arra is késztetheti a klinikusokat, hogy figyelmen kívül hagyják a...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Az orvosi képeket értelmező mesterséges intelligencia modellek azt ígérik, hogy javítják a klinikusok azon képességét, hogy pontos és időben diagnosztizáljanak, miközben csökkentik a munkaterhelést azáltal, hogy lehetővé teszik az elfoglalt orvosok számára, hogy a kritikus esetekre összpontosítsanak, és rutinfeladatokat ruházzanak át az MI-re. Az olyan mesterséges intelligencia modellek azonban problémát okozhatnak, amelyek nem mutatják át a diagnózis felállításának módját és miértjét. Ez az átláthatatlan érv -; más néven „Black Box” AI -; csökkentheti az orvosnak az AI-eszköz megbízhatóságába vetett bizalmát, és így elriaszthatja annak használatát. Az átláthatóság hiánya arra is késztetheti a klinikusokat, hogy figyelmen kívül hagyják a...

A tanulmányok azt mutatják, hogy a kiemelkedő hőtérképek még nem állnak készen a főműsoridőre

Az orvosi képeket értelmező mesterséges intelligencia modellek azt ígérik, hogy javítják a klinikusok azon képességét, hogy pontos és időben diagnosztizáljanak, miközben csökkentik a munkaterhelést azáltal, hogy lehetővé teszik az elfoglalt orvosok számára, hogy a kritikus esetekre összpontosítsanak, és rutinfeladatokat ruházzanak át az MI-re.

Az olyan mesterséges intelligencia modellek azonban problémát okozhatnak, amelyek nem mutatják át a diagnózis felállításának módját és miértjét. Ez az átláthatatlan érv -; más néven „Black Box” AI -; csökkentheti az orvosnak az AI-eszköz megbízhatóságába vetett bizalmát, és így elriaszthatja annak használatát. Az átláthatóság hiánya arra is késztetheti a klinikusokat, hogy megbízzanak az eszköz értelmezésében.

Az orvosi képalkotás területén a szembetűnőség-értékelések egy módot jelentenek arra, hogy érthetőbb mesterségesintelligencia-modelleket hozzanak létre, és tisztázzák a mesterséges intelligencia döntéshozatalát -; Olyan megközelítés, amely hőtérképeket használ annak meghatározására, hogy az eszköz megfelelően csak az adott kép releváns részeire fókuszál-e, vagy pedig a kép irreleváns részeit célozza meg.

A hőtérképek úgy működnek, hogy kiemelik a kép azon részeit, amelyek befolyásolták az AI-modell értelmezését. Ez segíthet a humán orvosoknak észlelni, hogy az AI-modell ugyanazokra a területekre fókuszál-e, mint ők, vagy helytelenül a kép irreleváns helyeire fókuszál.

A Nature Machine Intelligence folyóiratban október 10-én publikált új tanulmány azonban azt mutatja, hogy minden ígéret ellenére a kiemelkedő hőtérképek még nem állnak készen a főműsoridőre.

A Harvard Medical School kutatója, Pranav Rajpurkar, Matthew Lungren (Stanford) és Adriel Saporta, a New York-i Egyetem munkatársa által vezetett elemzés hét széles körben használt kiemelési módszer érvényességét mérte fel annak meghatározására, hogy mennyire megbízhatóan és pontosan azonosíthatók a 10 gyakran diagnosztizált állapothoz kapcsolódó patológiák. To determine performance, the researchers compared the tools' performance with human expert judgment.

Végső soron a kiemelkedő hőtérkép-alapú hőtérképeket használó eszközök következetesen alulteljesítettek a humán radiológusokhoz képest a képértékelés és a kóros elváltozások észlelésének képessége terén.

Ez a munka az első összehasonlító elemzés a kiugrósági térképek és a humán szakértői teljesítmény között a többszörös radiográfiai patológia értékelésében. A tanulmány azt is részletesen megérti, hogy egy kép bizonyos patológiás jellemzői befolyásolhatják-e az AI-eszközök teljesítményét, és ha igen, hogyan.

A figyelemfelkeltő térkép funkciót már minőségbiztosítási eszközként használják a klinikai gyakorlatok, amelyek mesterséges intelligencia segítségével értelmezik a számítógéppel segített kimutatási módszereket, mint például: B. Mellkasröntgen olvasása. A kutatók szerint azonban az új eredmények fényében ezt a funkciót óvatosan és egy egészséges adag szkepticizmussal kell élvezni.

Elemzésünk azt mutatja, hogy a kiugrósági térképek még nem elég megbízhatóak ahhoz, hogy hitelesítsék az AI-modell által hozott egyéni klinikai döntéseket. Fontos korlátozásokat azonosítottunk, amelyek komoly biztonsági aggályokat vetnek fel a jelenlegi gyakorlatban való használat során.”

Pranav Rajpurkar, orvosbiológiai informatika adjunktus, HMS

A kutatók felhívják a figyelmet arra, hogy a tanulmányban azonosított fontos korlátok miatt a feltűnést keltő hőtérképeket tovább kell finomítani, mielőtt széles körben alkalmaznák a klinikai mesterséges intelligencia modellekben.

A csapat teljes kódbázisa, adatai és elemzése mindenki számára nyitva áll, aki érdeklődik a klinikai gépi tanulás e fontos aspektusa iránt az orvosi képalkotó alkalmazásokban.

Forrás:

Harvard Medical School

Referencia:

Saporta, A. és mtsai. (2022) Benchmarking salienency módszerek a mellkas röntgen értelmezéséhez. Természet-gép intelligencia. doi.org/10.1038/s42256-022-00536-x.

.