医生的批判性思维能力因过度依赖生成人工智能而受到损害
在线期刊《BMJ 循证医学》上发表的一篇社论警告说,过度依赖生成式人工智能可能会削弱新医生和未来医生的批判性思维能力,同时可能会增加现有的数据偏差和不平等。 GenAI 工具已经被广泛使用,尽管制度政策和监管指南很少,...
医生的批判性思维能力因过度依赖生成人工智能而受到损害
在线期刊上发表的一篇社论警告说,过度依赖生成式人工智能可能会削弱新医生和未来医生的批判性思维能力,同时可能会增加现有的数据偏见和不平等BMJ 循证医学。
作者强调,尽管机构政策和监管指导很少,但 GenAI 工具已经被广泛使用,他们敦促医学教育工作者保持警惕,调整课程和培训,以减少该技术的缺陷。
美国哥伦比亚密苏里大学的作者指出,人工智能现在被用于各种不同的任务,但随着其潜力的增长,过度依赖它的风险也随之增加,并且给医学生和有抱负的医生带来许多潜在问题。
这包括:
● 自动化偏见——长期使用后对自动化信息不加批判的信任
● 认知卸载,并将改变思想的信息的检索、评估和合成外包给人工智能,从而破坏批判性思维和记忆保留
● 去技能化技能,对于刚开始学习这项技能且缺乏审核人工智能建议经验的医学生和新医生来说尤其重要
● 加剧现有的数据偏差和不平等
● 幻觉——流动且可信但不准确的信息
● 隐私、安全和数据管理违规——鉴于医疗数据的敏感性,这是一个特别令人担忧的问题
作者提出了一些改变,以尽量减少这些风险,包括在教育评估中对过程进行评分,而不仅仅是最终产品,假设学习者已经使用了人工智能。
作者建议,排除人工智能的关键能力评估必须使用监督站或面对面检查来设计——这对于床边沟通、体检、团队合作和专业判断尤其重要。
他们补充道,将人工智能本身作为一种能力进行评估可能是明智的,因为“数据素养和教授人工智能设计、开发和评估现在比以往任何时候都更加重要,而且这些知识对于医学生和实习生来说不再是奢侈品。”
医学实习生必须了解人工智能的优势和劣势背后的原理和概念,以及人工智能工具在何处以及如何有意义地集成到临床工作流程和护理路径中。他们强调,受训者还需要知道如何评估他们的预期表现以及随着时间的推移可能出现的偏见。
“特别是,需要改进批判性思维的教学,这可以通过创建人工智能结果混合了正确答案和故意错误答案的案例来实现。然后,学习者将接受、改变或拒绝他们的决定,并通过主要证据来源证明其合理性“,作者建议。
作者表示,世界各地的监管机构、专业协会和教育协会也必须尽自己的一份力量,制定并定期更新有关人工智能对医学教育影响的指南。
他们的结论是:“生成式人工智能的好处已被记录并经过充分研究,但它并非没有缺陷,特别是对于医疗培训和新手用户而言。这些工具可能会捏造信息来源,编码偏见,导致过度自信,并对教育之旅产生负面破坏性影响。
“医疗项目必须对这些风险保持警惕,并调整其课程和培训计划,以保持领先并降低其可能性”。
资料来源:
霍夫,J.,等人。 (2025)。 GenAI对医学教育的潜在风险。 BMJ 循证医学。 doi:10.1136/bmjebm-2025-114339。 https://ebm.bmj.com/content/30/6/406