Des études montrent que les cartes thermiques de saillance ne sont peut-être pas encore prêtes pour les heures de grande écoute

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Les modèles d'intelligence artificielle qui interprètent les images médicales promettent d'améliorer la capacité des cliniciens à poser des diagnostics précis et opportuns tout en réduisant la charge de travail en permettant aux médecins occupés de se concentrer sur les cas critiques et de déléguer les tâches de routine à l'IA. Mais les modèles d’IA qui manquent de transparence sur comment et pourquoi un diagnostic est posé peuvent poser problème. Cet argument opaque - ; également connue sous le nom d’IA « Black Box » - ; peut réduire la confiance du médecin dans la fiabilité de l'outil d'IA et ainsi décourager son utilisation. Ce manque de transparence pourrait également conduire les cliniciens à négliger l'interprétation des...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
Les modèles d'intelligence artificielle qui interprètent les images médicales promettent d'améliorer la capacité des cliniciens à poser des diagnostics précis et opportuns tout en réduisant la charge de travail en permettant aux médecins occupés de se concentrer sur les cas critiques et de déléguer les tâches de routine à l'IA. Mais les modèles d’IA qui manquent de transparence sur comment et pourquoi un diagnostic est posé peuvent poser problème. Cet argument opaque - ; également connue sous le nom d’IA « Black Box » - ; peut réduire la confiance du médecin dans la fiabilité de l'outil d'IA et ainsi décourager son utilisation. Ce manque de transparence pourrait également conduire les cliniciens à négliger l'interprétation des...

Des études montrent que les cartes thermiques de saillance ne sont peut-être pas encore prêtes pour les heures de grande écoute

Les modèles d'intelligence artificielle qui interprètent les images médicales promettent d'améliorer la capacité des cliniciens à poser des diagnostics précis et opportuns tout en réduisant la charge de travail en permettant aux médecins occupés de se concentrer sur les cas critiques et de déléguer les tâches de routine à l'IA.

Mais les modèles d’IA qui manquent de transparence sur comment et pourquoi un diagnostic est posé peuvent poser problème. Cet argument opaque - ; également connue sous le nom d’IA « Black Box » - ; peut réduire la confiance du médecin dans la fiabilité de l'outil d'IA et ainsi décourager son utilisation. Ce manque de transparence pourrait également amener les cliniciens à faire confiance à l'interprétation de l'outil.

Dans le domaine de l'imagerie médicale, les évaluations de saillance ont été un moyen de créer des modèles d'IA plus compréhensibles et de démystifier la prise de décision en matière d'IA - ; Une approche qui utilise des cartes thermiques pour déterminer si l'outil se concentre correctement uniquement sur les parties pertinentes d'une image donnée ou cible les parties non pertinentes de celle-ci.

Les cartes thermiques fonctionnent en mettant en évidence les zones d'une image qui ont influencé l'interprétation du modèle d'IA. Cela pourrait aider les médecins humains à détecter si le modèle d’IA se concentre sur les mêmes zones qu’eux ou se concentre de manière incorrecte sur des endroits non pertinents dans une image.

Mais une nouvelle étude publiée le 10 octobre dans Nature Machine Intelligence montre que, malgré toutes leurs promesses, les cartes thermiques de saillance ne sont pas encore prêtes à être diffusées aux heures de grande écoute.

L'analyse, dirigée par Pranav Rajpurkar, chercheur de la Harvard Medical School, Matthew Lungren de Stanford et Adriel Saporta de l'Université de New York, a quantifié la validité de sept méthodes de mise en évidence largement utilisées pour déterminer avec quelle fiabilité et précision elles peuvent identifier les pathologies associées à 10 conditions couramment diagnostiquées, telles que les lésions pulmonaires, les épanchements pleuraux, l'œdème ou les structures cardiaques hypertrophiées. Pour déterminer les performances, les chercheurs ont comparé les performances des outils avec le jugement d'un expert humain.

En fin de compte, les outils qui utilisaient des cartes thermiques basées sur des cartes thermiques saillantes étaient systématiquement sous-performants par rapport aux radiologues humains en termes d'évaluation des images et de leur capacité à détecter des lésions pathologiques.

Le travail représente la première analyse comparative entre les cartes de saillance et les performances des experts humains dans l’évaluation de plusieurs pathologies radiographiques. L’étude fournit également une compréhension détaillée de la question de savoir si et comment certaines caractéristiques pathologiques d’une image peuvent avoir un impact sur les performances des outils d’IA.

La fonctionnalité de carte de saillance est déjà utilisée comme outil d'assurance qualité par les cabinets cliniques qui utilisent l'IA pour interpréter les méthodes de détection assistées par ordinateur, telles que : B. Lecture des radiographies pulmonaires. Mais au vu des nouvelles découvertes, cette fonctionnalité doit être appréciée avec prudence et une bonne dose de scepticisme, selon les chercheurs.

Notre analyse montre que les cartes de saillance ne sont pas encore suffisamment fiables pour valider les décisions cliniques individuelles prises par un modèle d'IA. Nous avons identifié des limitations importantes qui soulèvent de graves problèmes de sécurité pour une utilisation dans la pratique actuelle.

Pranav Rajpurkar, professeur adjoint d'informatique biomédicale, HMS

Les chercheurs préviennent qu’en raison des limites importantes identifiées dans l’étude, les cartes thermiques basées sur la saillance devraient être affinées davantage avant d’être largement utilisées dans les modèles cliniques d’IA.

La base de code complète, les données et les analyses de l'équipe sont ouvertes et accessibles à toute personne intéressée par l'exploration de cet aspect important de l'apprentissage automatique clinique dans les applications d'imagerie médicale.

Source:

École de médecine de Harvard

Référence:

Saporta, A. et coll. (2022) Analyse comparative des méthodes de saillance pour l’interprétation des radiographies thoraciques. Intelligence nature-machine. est ce que je.org/10.1038/s42256-022-00536-x.

.