Le capacità di pensiero critico dei medici vengono compromesse dall’eccessivo affidamento all’intelligenza artificiale generativa
L’eccessivo affidamento all’intelligenza artificiale generativa rischia di indebolire le capacità di pensiero critico dei nuovi e futuri medici, aumentando potenzialmente i pregiudizi e le disuguaglianze nei dati esistenti, avverte un editoriale pubblicato sulla rivista online BMJ Evidence-Based Medicine. Gli strumenti GenAI sono già ampiamente utilizzati, sebbene esistano poche politiche istituzionali e linee guida normative,...
Le capacità di pensiero critico dei medici vengono compromesse dall’eccessivo affidamento all’intelligenza artificiale generativa
L’eccessivo affidamento all’intelligenza artificiale generativa rischia di indebolire le capacità di pensiero critico dei medici nuovi e futuri, aumentando potenzialmente i pregiudizi e le disuguaglianze nei dati esistenti, avverte un editoriale pubblicato sulla rivista onlineBMJ Medicina basata sull'evidenza.
Gli strumenti GenAI sono già ampiamente utilizzati nonostante poche politiche istituzionali e indicazioni normative, sottolineano gli autori, che esortano gli educatori medici a essere vigili e ad adattare programmi di studio e formazione per mitigare le insidie della tecnologia.
L’uso dell’intelligenza artificiale viene ora utilizzato in una varietà di compiti diversi, ma man mano che il suo potenziale cresce, aumenta anche il rischio di fare eccessivo affidamento su di essa e una serie di potenziali problemi per gli studenti di medicina e gli aspiranti medici, notano gli autori dell’Università del Missouri, Columbia, USA.
Ciò include:
● Bias da automazione: fiducia acritica nelle informazioni automatizzate dopo un uso prolungato
● Scaricamento cognitivo ed esternalizzazione all'intelligenza artificiale del recupero, della valutazione e della sintesi delle informazioni che alterano il pensiero, minando così il pensiero critico e la conservazione della memoria
● Competenze di dequalificazione, che sono particolarmente importanti per gli studenti di medicina e i nuovi medici che stanno apprendendo questa competenza in primo luogo e che non hanno l'esperienza per esaminare i consigli dell'IA
● Rafforzare le distorsioni e le disuguaglianze nei dati esistenti
● Allucinazioni: informazioni fluide e plausibili ma imprecise
● Violazioni della privacy, della sicurezza e della gestione dei dati: una preoccupazione particolare data la natura sensibile dei dati sanitari
Gli autori suggeriscono diverse modifiche per ridurre al minimo questi rischi, inclusa la valutazione del processo, non solo del prodotto finale, nelle valutazioni educative, presupponendo che gli studenti abbiano utilizzato l’intelligenza artificiale.
Le valutazioni delle competenze critiche che escludono l’intelligenza artificiale devono essere progettate utilizzando postazioni supervisionate o esami faccia a faccia, particolarmente importanti per la comunicazione al letto del paziente, l’esame fisico, il lavoro di squadra e il giudizio professionale, suggeriscono gli autori.
E potrebbe essere saggio valutare l’intelligenza artificiale stessa come una competenza, perché “l’alfabetizzazione dei dati e l’insegnamento della progettazione, dello sviluppo e della valutazione dell’intelligenza artificiale sono ora più importanti che mai, e questa conoscenza non è più un lusso per studenti e tirocinanti di medicina”, aggiungono.
I tirocinanti medici devono comprendere i principi e i concetti alla base dei punti di forza e di debolezza dell'intelligenza artificiale, nonché dove e come gli strumenti di intelligenza artificiale possono essere integrati in modo significativo nei flussi di lavoro clinici e nei percorsi di cura. E i tirocinanti devono anche sapere come valutare le prestazioni previste e le possibili distorsioni nel tempo, sottolineano.
“In particolare, è necessario un migliore insegnamento del pensiero critico, che può essere ottenuto creando casi in cui i risultati dell’intelligenza artificiale sono un mix di risposte corrette e intenzionalmente errate. Gli studenti quindi accetterebbero, modificherebbero o rifiuterebbero la loro decisione e la giustificherebbero con fonti primarie basate sull'evidenza“, suggeriscono gli autori.
Anche i regolatori, le società professionali e le associazioni educative di tutto il mondo devono fare la loro parte creando e aggiornando regolarmente linee guida sull’impatto dell’IA sulla formazione medica, affermano gli autori.
Concludono: “L’intelligenza artificiale generativa presenta vantaggi documentati e ben studiati, ma non è priva di insidie, soprattutto per la formazione medica e gli utenti alle prime armi. Questi strumenti possono creare fonti, codificare pregiudizi, portare a un’eccessiva fiducia e avere effetti negativamente dirompenti sul percorso educativo.
“I programmi medici devono essere vigili su questi rischi e adattare i loro programmi di studio e di formazione per stare al passo con loro e ridurre la loro probabilità.”
Fonti:
Hough, J.,et al. (2025). Potenziali rischi della GenAI sulla formazione medica. Medicina basata sull'evidenza del BMJ. doi: 10.1136/bmjebm-2025-114339. https://ebm.bmj.com/content/30/6/406