Проучванията показват, че топлинните карти на значимостта може все още да не са готови за най-гледаното време

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Моделите с изкуствен интелект, които интерпретират медицински изображения, обещават да подобрят способността на клиницистите да поставят точни и навременни диагнози, като същевременно намаляват натоварването, като позволяват на заетите лекари да се съсредоточат върху критични случаи и да делегират рутинни задачи на AI. Но AI моделите, които нямат прозрачност за това как и защо се прави диагноза, могат да бъдат проблематични. Този непрозрачен аргумент -; известен също като „Черна кутия“ AI -; може да намали доверието на лекаря в надеждността на AI инструмента и по този начин да обезсърчи използването му. Тази липса на прозрачност може също така да накара клиницистите да пренебрегнат тълкуването на...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Моделите с изкуствен интелект, които интерпретират медицински изображения, обещават да подобрят способността на клиницистите да поставят точни и навременни диагнози, като същевременно намаляват натоварването, като позволяват на заетите лекари да се съсредоточат върху критични случаи и да делегират рутинни задачи на AI. Но AI моделите, които нямат прозрачност за това как и защо се прави диагноза, могат да бъдат проблематични. Този непрозрачен аргумент -; известен също като „Черна кутия“ AI -; може да намали доверието на лекаря в надеждността на AI инструмента и по този начин да обезсърчи използването му. Тази липса на прозрачност може също така да накара клиницистите да пренебрегнат тълкуването на...

Проучванията показват, че топлинните карти на значимостта може все още да не са готови за най-гледаното време

Моделите с изкуствен интелект, които интерпретират медицински изображения, обещават да подобрят способността на клиницистите да поставят точни и навременни диагнози, като същевременно намаляват натоварването, като позволяват на заетите лекари да се съсредоточат върху критични случаи и да делегират рутинни задачи на AI.

Но AI моделите, които нямат прозрачност за това как и защо се прави диагноза, могат да бъдат проблематични. Този непрозрачен аргумент -; известен също като „Черна кутия“ AI -; може да намали доверието на лекаря в надеждността на AI инструмента и по този начин да обезсърчи използването му. Тази липса на прозрачност може също да накара клиницистите да се доверят на интерпретацията на инструмента.

В областта на медицинските изображения, оценките на значимостта са начин за създаване на по-разбираеми модели на ИИ и демистифициране на вземането на решения с ИИ -; Подход, който използва топлинни карти, за да определи дали инструментът се фокусира правилно само върху съответните части от дадено изображение или се насочва към неподходящи части от него.

Топлинните карти работят, като подчертават области на изображение, които са повлияли на интерпретацията на AI модела. Това може да помогне на човешките лекари да открият дали AI моделът се фокусира върху същите области като тях или неправилно фокусира върху неподходящи места в изображението.

Но ново проучване, публикувано на 10 октомври в Nature Machine Intelligence, показва, че въпреки всичките си обещания, топлинните карти на значимостта все още не са готови за най-доброто време.

Анализът, ръководен от изследователя от Харвардското медицинско училище Пранав Раджпуркар, Матю Лунгрен от Станфорд и Адриел Сапорта от Нюйоркския университет, количествено определи валидността на седем широко използвани метода за осветяване, за да определи колко надеждно и точно могат да идентифицират патологии, свързани с 10 често диагностицирани състояния Рентгеново изображение, като белодробни лезии, плеврални изливи, оток или разширение сърдечни структури. За да определят производителността, изследователите сравняват производителността на инструментите с човешка експертна преценка.

В крайна сметка инструментите, които използват изявени топлинни карти, базирани на топлинна карта, постоянно се представят по-слабо в сравнение с човешките рентгенолози при оценката на изображението и способността им да откриват патологични лезии.

Работата представлява първият сравнителен анализ между картите на значимостта и работата на човешкия експерт при оценката на множество рентгенографски патологии. Проучването също така предоставя подробно разбиране за това дали и как определени патологични характеристики в изображението могат да повлияят на работата на инструментите за изкуствен интелект.

Функцията за карта на значимостта вече се използва като инструмент за осигуряване на качество от клинични практики, които използват AI за интерпретиране на компютърно подпомагани методи за откриване, като например: B. Разчитане на рентгенови снимки на гръдния кош. Но с оглед на новите открития, тази функция трябва да се използва с повишено внимание и здравословна доза скептицизъм, според изследователите.

Нашият анализ показва, че картите на значимостта все още не са достатъчно надеждни, за да валидират индивидуалните клинични решения, взети от AI модел. Идентифицирахме важни ограничения, които пораждат сериозни опасения за безопасността при използване в настоящата практика.

Пранав Раджпуркар, асистент по биомедицинска информатика, HMS

Изследователите предупреждават, че поради важните ограничения, идентифицирани в проучването, базираните на изпъкналост топлинни карти трябва да бъдат допълнително усъвършенствани, преди да бъдат широко използвани в клинични модели на ИИ.

Пълната кодова база, данни и анализ на екипа са отворени и достъпни за всеки, който се интересува от изследването на този важен аспект на клиничното машинно обучение в приложенията за медицински изображения.

източник:

Харвардско медицинско училище

Справка:

Saporta, A., et al. (2022) Сравнителни методи за значимост за интерпретация на рентгенография на гръдния кош. Природно-машинен интелект. doi.org/10.1038/s42256-022-00536-x.

.