Les modèles d’IA en pathologie révèlent des biais démographiques dans le diagnostic du cancer
La pathologie a longtemps été la pierre angulaire du diagnostic et du traitement du cancer. Un pathologiste examine soigneusement une section ultra-mince de tissu humain au microscope à la recherche d’indices indiquant la présence, le type et le stade du cancer. Pour un expert humain, regarder un échantillon de tissu rose tourbillonnant parsemé de cellules violettes est...
Les modèles d’IA en pathologie révèlent des biais démographiques dans le diagnostic du cancer
La pathologie a longtemps été la pierre angulaire du diagnostic et du traitement du cancer. Un pathologiste examine soigneusement une section ultra-mince de tissu humain au microscope à la recherche d’indices indiquant la présence, le type et le stade du cancer.
Pour un expert humain, regarder un échantillon de tissu rose tourbillonnant parsemé de cellules violettes revient à noter un examen sans nom : la diapositive révèle des informations essentielles sur la maladie sans fournir plus de détails sur le patient.
Cependant, il n’en va pas nécessairement de même pour les modèles d’intelligence artificielle en pathologie qui ont émergé ces dernières années. Une nouvelle étude menée par une équipe de la Harvard Medical School montre que ces modèles peuvent d'une manière ou d'une autre déduire des informations démographiques à partir de diapositives pathologiques, conduisant à un biais de diagnostic du cancer dans différentes populations.
En analysant plusieurs modèles majeurs d'IA pathologique pour le diagnostic du cancer, les chercheurs ont constaté des performances inégales dans la détection et la différenciation des cancers dans différentes populations en fonction du sexe, de la race et de l'âge autodéclarés des patients. Ils ont identifié plusieurs explications possibles à ce biais démographique.
L’équipe a ensuite développé un cadre appelé FAIR-Path, qui a contribué à réduire les biais dans les modèles.
La lecture de données démographiques à partir d’une diapositive de pathologie est considérée comme une « mission impossible » pour un pathologiste humain, c’est pourquoi le biais de l’IA en pathologie nous a surpris.
Kun-Hsing Yu, auteur principal, professeur agrégé d'informatique biomédicale, Institut Blavatnik au HMS et professeur adjoint de pathologie au Brigham and Women's Hospital
Détecter et combattre les préjugés de l'IA en médecine est essentiel car cela peut affecter la précision du diagnostic ainsi que les résultats pour les patients, a déclaré Yu. Le succès de FAIR-Path montre que les chercheurs peuvent améliorer l’équité des modèles d’IA pour la pathologie du cancer, et potentiellement d’autres modèles d’IA en médecine, avec un minimum d’effort.
Les travaux, soutenus en partie par un financement fédéral, sont décrits le 16 décembre dansRapports cellulaires Médecine.
Vérifier les biais
Yu et son équipe ont examiné les biais dans quatre modèles pathologiques standards d’IA développés pour l’évaluation du cancer. Ces modèles d’apprentissage profond ont été formés sur des ensembles de lames pathologiques annotées, à partir desquelles ils ont « appris » des modèles biologiques qui leur permettent d’analyser de nouvelles lames et de poser des diagnostics.
Les chercheurs ont alimenté les modèles d’IA avec une vaste archive interinstitutionnelle de lames pathologiques provenant de 20 types de cancer.
Ils ont constaté que les quatre modèles avaient des performances faussées et fournissaient des diagnostics moins précis pour les patients de certains groupes en fonction de la race, du sexe et de l'âge autodéclarés. Par exemple, les modèles ont eu du mal à distinguer les sous-types de cancer du poumon chez les patients afro-américains et masculins et les sous-types de cancer du sein chez les patients plus jeunes. Les modèles ont également eu des difficultés à détecter les cancers du sein, du rein, de la thyroïde et de l’estomac dans certaines populations. Ces différences de performances se sont produites dans environ 29 pour cent des tâches de diagnostic effectuées par les modèles.
Cette inexactitude du diagnostic, a déclaré Yu, est due au fait que ces modèles extraient des informations démographiques des diapositives et s'appuient sur des modèles démographiques spécifiques pour diagnostiquer.
Les résultats étaient inattendus « parce que nous nous attendrions à une évaluation pathologique objective », a ajouté Yu. « Lors de l’évaluation d’images, nous n’avons pas nécessairement besoin de connaître les données démographiques d’un patient pour poser un diagnostic. »
L’équipe s’est demandée : pourquoi l’IA en pathologie n’a-t-elle pas fait preuve de la même objectivité ?
Je cherche des explications
Les chercheurs ont proposé trois explications.
Parce qu’il est plus facile pour les patients de certaines populations d’obtenir des échantillons, les modèles d’IA sont formés sur des tailles d’échantillons inégales. Cela rend plus difficile pour les modèles d'établir un diagnostic précis sur des échantillons qui ne sont pas bien représentés dans l'ensemble de formation, tels que ceux issus de groupes minoritaires en fonction de la race, de l'âge ou du sexe.
Mais « le problème était bien plus profond », a déclaré Yu. Les chercheurs ont remarqué que les modèles fonctionnaient parfois moins bien dans un groupe de population, même lorsque la taille des échantillons était comparable.
Une analyse supplémentaire a révélé que cela pourrait être dû à des différences dans la prévalence de la maladie : certains cancers sont plus fréquents dans certains groupes, ce qui rend les modèles plus efficaces pour poser un diagnostic dans ces groupes. En conséquence, les modèles peuvent avoir des difficultés à diagnostiquer les cancers dans les populations où ils ne sont pas aussi courants.
Les modèles d’IA capturent également des différences moléculaires subtiles dans des échantillons provenant de différents groupes démographiques. Par exemple, les modèles peuvent détecter des mutations dans les gènes responsables du cancer et les utiliser comme indicateur du type de cancer – et sont donc moins efficaces pour poser un diagnostic dans les populations où ces mutations sont moins courantes.
"Nous avons découvert que la puissance de l'IA lui permet de distinguer de nombreux signaux biologiques peu clairs qui ne peuvent pas être détectés par une interprétation humaine normale", a déclaré Yu.
Cela permet aux modèles d’apprendre potentiellement des signaux davantage liés à la démographie qu’à la maladie. Ceci, à son tour, pourrait avoir un impact sur leurs capacités de diagnostic dans tous les groupes.
Prises ensemble, dit Yu, ces explications suggèrent que les biais dans l’IA en pathologie proviennent non seulement de la qualité variable des données d’entraînement, mais également de la manière dont les chercheurs entraînent les modèles.
Trouver une solution
Après avoir évalué l’étendue et les causes de ce biais, Yu et son équipe ont entrepris de résoudre le problème.
Les chercheurs ont développé FAIR-Path, un cadre simple basé sur un concept d'apprentissage automatique existant appelé apprentissage contrastif. L'apprentissage contrasté ajoute un élément à la formation en IA qui apprend au modèle à mettre l'accent sur les différences entre les catégories importantes - dans ce cas les cancers - et à minimiser les différences entre les catégories moins importantes - dans ce cas les groupes démographiques.
Lorsque les chercheurs ont appliqué le cadre FAIR-Path aux modèles qu’ils ont testés, les différences de diagnostic ont été réduites d’environ 88 %.
"Nous montrons que grâce à ce petit ajustement, les modèles peuvent acquérir des fonctionnalités robustes qui les rendent plus généralisables et plus équitables entre différentes populations", a déclaré Yu.
Le résultat est encourageant, a-t-il ajouté, car il suggère que les biais peuvent être réduits même sans former les modèles sur des données totalement justes et représentatives.
Ensuite, Yu et son équipe collaborent avec des institutions du monde entier pour examiner l’étendue des préjugés dans l’IA en pathologie dans des endroits présentant des données démographiques différentes et des pratiques cliniques et pathologiques différentes. Ils étudient également les moyens d’étendre FAIR-Path à des contextes avec des tailles d’échantillon limitées. De plus, ils souhaitent examiner comment les biais de l’IA contribuent aux écarts démographiques dans les soins de santé et les résultats pour les patients.
En fin de compte, a déclaré Yu, l’objectif est de créer des modèles d’IA pathologiques justes et impartiaux qui peuvent améliorer le traitement du cancer en aidant les pathologistes humains à poser un diagnostic rapide et précis.
"Je pense qu'il y a de l'espoir que si nous sommes plus conscients et plus prudents dans le développement de systèmes d'IA, nous pourrons développer des modèles qui fonctionnent bien dans n'importe quelle population", a-t-il déclaré.
Sources :
Lin, S.-Y.,et autres. (2025). L’apprentissage contrasté améliore l’équité dans les systèmes d’intelligence artificielle en pathologie. Rapports cellulaires Médecine. est ce que je:10.1016/j.xcrm.2025.102527. https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7