Les capacités de pensée critique des médecins sont compromises par une dépendance excessive à l’IA générative
Une dépendance excessive à l'égard de l'IA générative risque d'affaiblir les capacités de pensée critique des nouveaux et futurs médecins, tout en augmentant potentiellement les biais et les inégalités dans les données existantes, prévient un éditorial publié dans la revue en ligne BMJ Evidence-Based Medicine. Les outils GenAI sont déjà largement utilisés, bien qu'il existe peu de politiques institutionnelles et de directives réglementaires,...
Les capacités de pensée critique des médecins sont compromises par une dépendance excessive à l’IA générative
Une dépendance excessive à l’égard de l’IA générative risque d’affaiblir les capacités de pensée critique des nouveaux et futurs médecins tout en augmentant potentiellement les biais et les inégalités dans les données existantes, prévient un éditorial publié dans la revue en ligne.BMJ Médecine factuelle.
Les outils GenAI sont déjà largement utilisés malgré peu de politiques institutionnelles et de directives réglementaires, soulignent les auteurs, qui exhortent les enseignants en médecine à être vigilants et à adapter les programmes et la formation pour atténuer les pièges de la technologie.
L'utilisation de l'IA est désormais utilisée dans une variété de tâches différentes, mais à mesure que son potentiel augmente, le risque de dépendance excessive à son égard et une foule de problèmes potentiels pour les étudiants en médecine et les futurs médecins augmentent également, notent les auteurs de l'Université du Missouri, Colombie, États-Unis.
Cela comprend :
● Biais d'automatisation – confiance non critique dans les informations automatisées après une utilisation prolongée
● Déchargement cognitif et externalisation de la récupération, de l'évaluation et de la synthèse d'informations altérant la pensée vers l'IA, sapant ainsi la pensée critique et la rétention de la mémoire.
● Compétences de déqualification, particulièrement importantes pour les étudiants en médecine et les nouveaux médecins qui apprennent cette compétence en premier lieu et qui n'ont pas l'expérience nécessaire pour examiner les conseils de l'IA.
● Renforcer les biais et les inégalités en matière de données
● Hallucinations – informations fluides et plausibles mais inexactes
● Violations de confidentialité, de sécurité et de gestion des données – une préoccupation particulière compte tenu de la nature sensible des données de santé
Les auteurs suggèrent plusieurs changements pour minimiser ces risques, notamment la notation du processus, et pas seulement du produit final, dans les évaluations pédagogiques, en supposant que les apprenants ont utilisé l’IA.
Les évaluations des compétences critiques qui excluent l'IA doivent être conçues à l'aide de postes supervisés ou d'examens en face-à-face - particulièrement importants pour la communication au chevet du patient, l'examen physique, le travail d'équipe et le jugement professionnel, suggèrent les auteurs.
Et il pourrait être judicieux d’évaluer l’IA elle-même en tant que compétence, car « la maîtrise des données et l’enseignement de la conception, du développement et de l’évaluation de l’IA sont désormais plus importants que jamais, et ces connaissances ne sont plus un luxe pour les étudiants et les stagiaires en médecine », ajoutent-ils.
Les stagiaires en médecine doivent comprendre les principes et les concepts qui sous-tendent les forces et les faiblesses de l'IA, ainsi que où et comment les outils d'IA peuvent être intégrés de manière significative dans les flux de travail cliniques et les parcours de soins. Et les stagiaires doivent également savoir comment évaluer les performances attendues et les éventuels biais au fil du temps, soulignent-ils.
"En particulier, un meilleur enseignement de la pensée critique est nécessaire, ce qui peut être réalisé en créant des cas où les résultats de l'IA sont un mélange de réponses correctes et intentionnellement incorrectes. Les apprenants accepteraient, modifieraient ou rejetteraient alors leur décision et la justifieraient avec des sources primaires fondées sur des preuves.», suggèrent les auteurs.
Les régulateurs, les sociétés professionnelles et les associations éducatives du monde entier doivent également jouer leur rôle en créant et en mettant régulièrement à jour des lignes directrices sur l’impact de l’IA sur l’enseignement médical, affirment les auteurs.
Ils concluent : «L’IA générative présente des avantages documentés et bien documentés, mais elle n’est pas sans pièges, en particulier pour la formation médicale et les utilisateurs novices. Ces outils peuvent fabriquer des sources, coder des préjugés, conduire à un excès de confiance et avoir des effets perturbateurs négatifs sur le parcours éducatif.
« Les programmes médicaux doivent être vigilants face à ces risques et adapter leurs programmes d'études et de formation pour garder une longueur d'avance sur eux et réduire leur probabilité..»
Sources :
Hough, J.,et autres. (2025). Risques potentiels de GenAI sur l’éducation médicale. Médecine basée sur des preuves BMJ. est ce que je: 10.1136/bmjebm-2025-114339. https://ebm.bmj.com/content/30/6/406