Tyrimai rodo, kad ryškumo šilumos žemėlapiai dar gali būti neparengti geriausiu laiku

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Dirbtinio intelekto modeliai, interpretuojantys medicininius vaizdus, ​​žada pagerinti gydytojų gebėjimą laiku nustatyti tikslią diagnozę ir sumažinti darbo krūvį, nes užsiėmę gydytojai gali sutelkti dėmesį į kritinius atvejus ir perduoti įprastas užduotis dirbtiniam intelektui. Tačiau AI modeliai, kuriems trūksta skaidrumo, kaip ir kodėl nustatoma diagnozė, gali būti problemiški. Šis neskaidrus argumentas -; taip pat žinomas kaip „juodoji dėžė“ AI -; gali sumažinti gydytojo pasitikėjimą dirbtinio intelekto įrankio patikimumu ir taip atgrasyti nuo jo naudojimo. Dėl šio skaidrumo trūkumo gydytojai taip pat gali nepastebėti, kaip interpretuoti...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Dirbtinio intelekto modeliai, interpretuojantys medicininius vaizdus, ​​žada pagerinti gydytojų gebėjimą laiku nustatyti tikslią diagnozę ir sumažinti darbo krūvį, nes užsiėmę gydytojai gali sutelkti dėmesį į kritinius atvejus ir perduoti įprastas užduotis dirbtiniam intelektui. Tačiau AI modeliai, kuriems trūksta skaidrumo, kaip ir kodėl nustatoma diagnozė, gali būti problemiški. Šis neskaidrus argumentas -; taip pat žinomas kaip „juodoji dėžė“ AI -; gali sumažinti gydytojo pasitikėjimą dirbtinio intelekto įrankio patikimumu ir taip atgrasyti nuo jo naudojimo. Dėl šio skaidrumo trūkumo gydytojai taip pat gali nepastebėti, kaip interpretuoti...

Tyrimai rodo, kad ryškumo šilumos žemėlapiai dar gali būti neparengti geriausiu laiku

Dirbtinio intelekto modeliai, interpretuojantys medicininius vaizdus, ​​žada pagerinti gydytojų gebėjimą laiku nustatyti tikslią diagnozę ir sumažinti darbo krūvį, nes užsiėmę gydytojai gali sutelkti dėmesį į kritinius atvejus ir perduoti įprastas užduotis dirbtiniam intelektui.

Tačiau AI modeliai, kuriems trūksta skaidrumo, kaip ir kodėl nustatoma diagnozė, gali būti problemiški. Šis neskaidrus argumentas -; taip pat žinomas kaip „juodoji dėžė“ AI -; gali sumažinti gydytojo pasitikėjimą dirbtinio intelekto įrankio patikimumu ir taip atgrasyti nuo jo naudojimo. Dėl šio skaidrumo trūkumo gydytojai taip pat gali pasitikėti įrankio interpretacija.

Medicininio vaizdavimo srityje ryškumo vertinimai buvo būdas sukurti suprantamesnius AI modelius ir demistifikuoti DI sprendimų priėmimą; Metodas, kuris naudoja šilumos žemėlapius, kad nustatytų, ar įrankis teisingai sufokusuoja tik atitinkamas tam tikro vaizdo dalis, ar nukreipia į nesusijusias jo dalis.

Šilumos žemėlapiai paryškina vaizdo sritis, kurios turėjo įtakos AI modelio interpretacijai. Tai gali padėti žmonių gydytojams nustatyti, ar AI modelis sutelkia dėmesį į tas pačias sritis kaip ir jie, ar neteisingai sutelkia dėmesį į nesvarbias vaizdo vietas.

Tačiau naujas tyrimas, paskelbtas spalio 10 d. žurnale Nature Machine Intelligence, rodo, kad, nepaisant visų pažadų, išskirtinumo šilumos žemėlapiai dar nėra paruošti geriausiu laiku.

Analizė, kuriai vadovavo Harvardo medicinos mokyklos tyrėjas Pranavas Rajpurkaras, Stanfordo Matthew Lungren ir Niujorko universiteto Adriel Saporta, kiekybiškai įvertino septynių plačiai naudojamų paryškinimo metodų pagrįstumą, siekiant nustatyti, kaip patikimai ir tiksliai jie gali nustatyti patologijas, susijusias su 10 dažniausiai diagnozuojamų būklių. Norėdami nustatyti našumą, tyrėjai palygino įrankių veikimą su žmogaus ekspertų nuomone.

Galiausiai įrankiai, kurie naudojo ryškius šilumos žemėlapius pagrįstus šilumos žemėlapius, nuolat buvo prastesni, palyginti su žmogaus radiologais, vertinant vaizdą ir jų gebėjimą aptikti patologinius pažeidimus.

Šis darbas yra pirmoji lyginamoji ryškumo žemėlapių ir žmogaus ekspertų veiklos vertinant daugybę radiografinių patologijų analizė. Tyrimas taip pat suteikia išsamų supratimą apie tai, ar tam tikros patologinės vaizdo ypatybės gali paveikti AI įrankių veikimą.

Ryškumo žemėlapio funkcija jau naudojama kaip kokybės užtikrinimo priemonė klinikinėje praktikoje, kuri naudoja dirbtinį intelektą, kad interpretuotų kompiuterinius aptikimo metodus, pvz.: B. Krūtinės ląstos rentgeno spindulių skaitymas. Tačiau, atsižvelgiant į naujas išvadas, mokslininkų teigimu, šia funkcija reikia džiaugtis atsargiai ir sveiku skepticizmo doze.

Mūsų analizė rodo, kad ryškumo žemėlapiai dar nėra pakankamai patikimi, kad patvirtintų individualius klinikinius sprendimus, priimtus naudojant AI modelį. Mes nustatėme svarbius apribojimus, kurie kelia rimtų susirūpinimą dėl naudojimo dabartinėje praktikoje.

Pranavas Rajpurkaras, HMS biomedicininės informatikos docentas

Tyrėjai įspėja, kad dėl tyrime nustatytų svarbių apribojimų, prieš pradedant plačiai naudoti klinikiniuose AI modeliuose, reikšmingumu pagrįsti šilumos žemėlapiai turėtų būti toliau tobulinami.

Visa komandos kodų bazė, duomenys ir analizė yra atviri ir prieinami visiems, norintiems ištirti šį svarbų klinikinio mašininio mokymosi medicinos vaizdavimo programose aspektą.

Šaltinis:

Harvardo medicinos mokykla

Nuoroda:

Saporta, A. ir kt. (2022) Lyginamieji krūtinės ląstos rentgenogramos aiškinimo metodai. Gamtos-mašininis intelektas. doi.org/10.1038/s42256-022-00536-x.

.