Las habilidades de pensamiento crítico de los médicos se están viendo comprometidas por la excesiva dependencia de la IA generativa
La dependencia excesiva de la IA generativa corre el riesgo de debilitar las habilidades de pensamiento crítico de los médicos nuevos y futuros, al tiempo que aumenta potencialmente los sesgos y las desigualdades en los datos existentes, advierte un editorial publicado en la revista en línea BMJ Evidence-Based Medicine. Las herramientas GenAI ya son ampliamente utilizadas, aunque existen pocas políticas institucionales y directrices regulatorias,...
Las habilidades de pensamiento crítico de los médicos se están viendo comprometidas por la excesiva dependencia de la IA generativa
La dependencia excesiva de la IA generativa corre el riesgo de debilitar las habilidades de pensamiento crítico de los médicos nuevos y futuros, al tiempo que aumenta potencialmente los sesgos y las desigualdades en los datos existentes, advierte un editorial publicado en la revista en línea.BMJ Medicina basada en la evidencia.
Las herramientas GenAI ya se están utilizando ampliamente a pesar de pocas políticas institucionales y orientación regulatoria, enfatizan los autores, quienes instan a los educadores médicos a estar atentos y adaptar los planes de estudio y la capacitación para mitigar los peligros de la tecnología.
El uso de la IA se utiliza ahora en una variedad de tareas diferentes, pero a medida que crece su potencial, también aumenta el riesgo de una dependencia excesiva de ella y una serie de problemas potenciales para los estudiantes de medicina y los aspirantes a médicos, señalan los autores de la Universidad de Missouri, Columbia, EE. UU.
Esto incluye:
● Sesgo de automatización: confianza acrítica en la información automatizada después de un uso prolongado.
● Descarga cognitiva y subcontratación de la recuperación, evaluación y síntesis de información que altera el pensamiento a la IA, socavando así el pensamiento crítico y la retención de la memoria.
● Habilidades de descalificación, que son particularmente importantes para los estudiantes de medicina y los nuevos médicos que están aprendiendo esta habilidad en primer lugar y que carecen de la experiencia para examinar los consejos de IA.
● Reforzar los sesgos y desigualdades existentes en los datos
● Alucinaciones: información fluida y plausible pero inexacta.
● Violaciones de privacidad, seguridad y gestión de datos: una preocupación particular dada la naturaleza sensible de los datos de atención médica.
Los autores sugieren varios cambios para minimizar estos riesgos, incluida la calificación del proceso, no solo del producto final, en las evaluaciones educativas, suponiendo que los alumnos hayan utilizado la IA.
Las evaluaciones de competencias críticas que excluyen la IA deben diseñarse utilizando estaciones supervisadas o exámenes cara a cara, lo que es particularmente importante para la comunicación junto a la cama, el examen físico, el trabajo en equipo y el juicio profesional, sugieren los autores.
Y podría ser prudente evaluar la IA en sí misma como una competencia, porque “la alfabetización en datos y la enseñanza del diseño, desarrollo y evaluación de la IA son ahora más importantes que nunca, y este conocimiento ya no es un lujo para los estudiantes y aprendices de medicina”, añaden.
Los médicos en formación deben comprender los principios y conceptos que subyacen a las fortalezas y debilidades de la IA, así como dónde y cómo las herramientas de IA pueden integrarse de manera significativa en los flujos de trabajo clínicos y las vías de atención. Y los alumnos también necesitan saber cómo evaluar su desempeño previsto y los posibles sesgos a lo largo del tiempo, enfatizan.
“En particular, se necesita una mejor enseñanza del pensamiento crítico, lo que se puede lograr creando casos en los que los resultados de la IA sean una combinación de respuestas correctas e intencionalmente incorrectas. Luego, los alumnos aceptarían, cambiarían o rechazarían su decisión y la justificarían con fuentes primarias basadas en evidencia.“, sugieren los autores.
Los reguladores, las sociedades profesionales y las asociaciones educativas de todo el mundo también deben hacer su parte creando y actualizando periódicamente directrices sobre el impacto de la IA en la educación médica, afirman los autores.
Concluyen: “La IA generativa tiene beneficios documentados y bien investigados, pero no está exenta de inconvenientes, especialmente para la formación médica y los usuarios novatos. Estas herramientas pueden fabricar fuentes, codificar sesgos, generar un exceso de confianza y tener efectos negativos y perturbadores en el camino educativo.
“Los programas médicos deben estar atentos a estos riesgos y adaptar sus planes de estudio y programas de capacitación para adelantarse a ellos y reducir su probabilidad..”
Fuentes:
Hough, J.,et al. (2025). Riesgos potenciales de GenAI en la educación médica. Medicina basada en evidencia de BMJ. doi: 10.1136/bmjebm-2025-114339. https://ebm.bmj.com/content/30/6/406