Die kritischen Denkfähigkeiten von Ärzten werden durch die übermäßige Abhängigkeit von generativer KI beeinträchtigt

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Eine übermäßige Abhängigkeit von generativer KI birgt die Gefahr, dass die Fähigkeiten neuer und zukünftiger Ärzte zum kritischen Denken geschwächt werden, während möglicherweise bestehende Datenverzerrungen und Ungleichheiten verstärkt werden, warnt ein im Online-Journal veröffentlichter Leitartikel BMJ Evidenzbasierte Medizin. GenAI-Tools werden bereits in großem Umfang eingesetzt, obwohl es nur wenige institutionelle Richtlinien und behördliche Leitlinien gibt, …

Die kritischen Denkfähigkeiten von Ärzten werden durch die übermäßige Abhängigkeit von generativer KI beeinträchtigt

Eine übermäßige Abhängigkeit von generativer KI birgt die Gefahr, dass die Fähigkeiten neuer und zukünftiger Ärzte zum kritischen Denken geschwächt werden, während möglicherweise bestehende Datenverzerrungen und Ungleichheiten verstärkt werden, warnt ein im Online-Journal veröffentlichter Leitartikel BMJ Evidenzbasierte Medizin.

GenAI-Tools werden bereits in großem Umfang eingesetzt, obwohl es nur wenige institutionelle Richtlinien und behördliche Leitlinien gibt, betonen die Autoren, die medizinische Ausbilder auffordern, wachsam zu sein und Lehrpläne und Schulungen anzupassen, um die Fallstricke der Technologie zu mildern.

Der Einsatz von KI wird heute in einer Vielzahl unterschiedlicher Aufgaben eingesetzt, aber mit dem wachsenden Potenzial steigt auch das Risiko einer übermäßigen Abhängigkeit davon und eine Vielzahl potenzieller Probleme für Medizinstudenten und angehende Ärzte, stellen die Autoren der University of Missouri, Columbia, USA fest.

Dazu gehören:

● Automatisierungsbias – unkritisches Vertrauen in automatisierte Informationen nach längerer Nutzung

● kognitive Entlastung und Auslagerung des Abrufs, der Bewertung und der Synthese von Informationen, die das Denken verändern, an KI, wodurch kritisches Denken und die Gedächtniserhaltung untergraben werden

● Fähigkeiten zur Dequalifizierung, die besonders wichtig für Medizinstudenten und frischgebackene Ärzte sind, die diese Fähigkeit überhaupt erst erlernen und denen die Erfahrung fehlt, die Ratschläge der KI zu prüfen

● Verstärkung bestehender Datenverzerrungen und Ungleichheiten

● Halluzinationen – fließende und plausible, aber ungenaue Informationen

● Verstöße gegen Datenschutz, Sicherheit und Datenverwaltung – ein besonderes Problem angesichts der sensiblen Natur von Gesundheitsdaten

Die Autoren schlagen verschiedene Änderungen vor, um diese Risiken zu minimieren, einschließlich der Benotung des Prozesses und nicht nur des Endprodukts in Bildungsbewertungen, unter der Annahme, dass die Lernenden KI verwendet haben.

Kritische Kompetenzbewertungen, die KI ausschließen, müssen unter Verwendung beaufsichtigter Stationen oder persönlicher Untersuchungen – besonders wichtig für Kommunikation am Krankenbett, körperliche Untersuchung, Teamarbeit und professionelles Urteilsvermögen – konzipiert werden, schlagen die Autoren vor.

Und es könnte klug sein, KI selbst als Kompetenz zu bewerten, denn „Datenkompetenz und das Unterrichten von KI-Design, -Entwicklung und -Bewertung sind heute wichtiger denn je, und dieses Wissen ist für Medizinstudierende und Auszubildende kein Luxus mehr“, fügen sie hinzu.

Medizinische Auszubildende müssen die Prinzipien und Konzepte verstehen, die den Stärken und Schwächen von Ai zugrunde liegen, sowie wissen, wo und wie KI-Tools sinnvoll in klinische Arbeitsabläufe und Pflegepfade integriert werden können. Und die Auszubildenden müssen auch wissen, wie sie ihre beabsichtigte Leistung und mögliche Vorurteile im Laufe der Zeit bewerten können, betonen sie.

Insbesondere ist eine verbesserte Lehre zum kritischen Denken erforderlich, was durch die Erstellung von Fällen erreicht werden kann, in denen die KI-Ergebnisse eine Mischung aus korrekten und absichtlich fehlerhaften Antworten sind. Die Lernenden würden dann ihre Entscheidung akzeptieren, ändern oder ablehnen und sie mit primären evidenzbasierten Quellen begründen“, schlagen die Autoren vor.

Auch Regulierungsbehörden, Fachgesellschaften und Bildungsverbände auf der ganzen Welt müssen ihren Beitrag leisten, indem sie Leitlinien zu den Auswirkungen von KI auf die medizinische Ausbildung erstellen und regelmäßig aktualisieren, fordern die Autoren.

Sie kommen zu dem Schluss: „Generative KI hat dokumentierte und gut erforschte Vorteile, ist jedoch nicht ohne Tücken, insbesondere für medizinische Ausbildung und Anfänger. Diese Tools können Quellen fabrizieren, Voreingenommenheit verschlüsseln, zu übermäßigem Vertrauen führen und negativ störende Auswirkungen auf den Bildungsweg haben.

„Medizinische Studiengänge müssen im Hinblick auf diese Risiken wachsam sein und ihre Lehrpläne und Schulungsprogramme anpassen, um ihnen immer einen Schritt voraus zu sein und ihre Wahrscheinlichkeit zu mindern.“


Quellen:

Journal reference:

Hough, J., et al. (2025). Potential risks of GenAI on medical education. BMJ Evidence Based Medicine. doi: 10.1136/bmjebm-2025-114339. https://ebm.bmj.com/content/30/6/406