De kritische denkvaardigheden van artsen worden aangetast door een te grote afhankelijkheid van generatieve AI

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Een te grote afhankelijkheid van generatieve AI dreigt de kritische denkvaardigheden van nieuwe en toekomstige artsen te verzwakken, terwijl de bestaande datavooroordelen en ongelijkheden mogelijk toenemen, waarschuwt een redactioneel artikel gepubliceerd in het online tijdschrift BMJ Evidence-Based Medicine. GenAI-tools worden al op grote schaal gebruikt, hoewel er weinig institutioneel beleid en regelgevingsrichtlijnen zijn.

De kritische denkvaardigheden van artsen worden aangetast door een te grote afhankelijkheid van generatieve AI

Een overmatig vertrouwen op generatieve AI dreigt de kritische denkvaardigheden van nieuwe en toekomstige artsen te verzwakken en tegelijkertijd de bestaande datavooroordelen en ongelijkheden te vergroten, waarschuwt een redactioneel artikel gepubliceerd in het online tijdschriftBMJ Evidence-based geneeskunde.

GenAI-instrumenten worden al op grote schaal gebruikt, ondanks weinig institutioneel beleid en regelgeving, benadrukken de auteurs, die er bij medische docenten op aandringen waakzaam te zijn en curricula en training aan te passen om de valkuilen van de technologie te verzachten.

Het gebruik van AI wordt nu voor een verscheidenheid aan verschillende taken gebruikt, maar naarmate het potentieel ervan groeit, neemt ook het risico van een te grote afhankelijkheid ervan toe en een groot aantal potentiële problemen voor medische studenten en aspirant-artsen, merken de auteurs van de Universiteit van Missouri, Columbia, VS op.

Dit omvat:

● Automatiseringsbias – onkritisch vertrouwen in geautomatiseerde informatie na langdurig gebruik

● Cognitieve ontlading en uitbesteding van het ophalen, evalueren en samenvoegen van gedachteveranderende informatie naar AI, waardoor kritisch denken en geheugenbehoud worden ondermijnd

● Deskilling-vaardigheden, die vooral belangrijk zijn voor geneeskundestudenten en nieuwe artsen die deze vaardigheid in de eerste plaats leren en die de ervaring missen om AI-advies te beoordelen

● Het versterken van bestaande vooroordelen en ongelijkheden op het gebied van data

● Hallucinaties – vloeiende en plausibele maar onnauwkeurige informatie

● Inbreuken op de privacy, beveiliging en gegevensbeheer – een bijzondere zorg gezien de gevoelige aard van gezondheidszorggegevens

De auteurs stellen verschillende veranderingen voor om deze risico's te minimaliseren, waaronder het beoordelen van het proces, en niet alleen het eindproduct, bij onderwijsbeoordelingen, ervan uitgaande dat leerlingen AI hebben gebruikt.

Kritische competentiebeoordelingen die AI uitsluiten, moeten worden ontworpen met behulp van bewaakte stations of face-to-face onderzoeken - vooral belangrijk voor communicatie aan het bed, lichamelijk onderzoek, teamwerk en professioneel oordeel, suggereren de auteurs.

En het kan verstandig zijn om AI zelf als een competentie te beoordelen, omdat “datageletterdheid en het onderwijzen van AI-ontwerp, -ontwikkeling en -evaluatie nu belangrijker zijn dan ooit, en deze kennis niet langer een luxe is voor medische studenten en stagiairs”, voegen ze eraan toe.

Medische stagiairs moeten de principes en concepten begrijpen die ten grondslag liggen aan de sterke en zwakke punten van AI, en ook waar en hoe AI-instrumenten op zinvolle wijze kunnen worden geïntegreerd in klinische workflows en zorgtrajecten. En stagiairs moeten ook weten hoe ze hun beoogde prestaties en mogelijke vooroordelen in de loop van de tijd moeten evalueren, benadrukken ze.

Er is met name een beter onderwijs in kritisch denken nodig, wat kan worden bereikt door gevallen te creëren waarin de AI-resultaten een mix zijn van correcte en opzettelijk onjuiste antwoorden. Leerlingen zouden dan hun beslissing accepteren, wijzigen of verwerpen en deze rechtvaardigen met primaire, op bewijs gebaseerde bronnen“, suggereren de auteurs.

Regelgevers, professionele verenigingen en onderwijsverenigingen over de hele wereld moeten ook hun steentje bijdragen door richtlijnen over de impact van AI op het medisch onderwijs te creëren en regelmatig bij te werken, zeggen de auteurs.

Ze concluderen: “Generatieve AI heeft gedocumenteerde en goed onderzochte voordelen, maar is niet zonder valkuilen, vooral voor medische opleidingen en beginnende gebruikers. Deze instrumenten kunnen bronnen verzinnen, vooroordelen coderen, tot overmoed leiden en een negatief ontwrichtend effect hebben op het onderwijstraject.

“Medische programma’s moeten waakzaam zijn over deze risico’s en hun curricula en trainingsprogramma’s aanpassen om deze risico’s voor te blijven en de kans hierop te verkleinen..”


Bronnen:

Journal reference:

Hough, J.,et al. (2025). Potentiële risico's van GenAI voor medisch onderwijs. BMJ Evidence Based Medicine. doi: 10.1136/bmjebm-2025-114339.  https://ebm.bmj.com/content/30/6/406