Pārmērīga paļaušanās uz ģeneratīvo AI apdraud ārstu kritiskās domāšanas prasmes
Pārmērīga paļaušanās uz ģeneratīvo AI riskē vājināt jauno un topošo ārstu kritiskās domāšanas prasmes, vienlaikus potenciāli palielinot esošo datu novirzi un nevienlīdzību, brīdina tiešsaistes žurnālā BMJ Evidence-Based Medicine publicētā redakcija. GenAI rīki jau tiek plaši izmantoti, lai gan ir maz institucionālo politiku un normatīvo vadlīniju,...
Pārmērīga paļaušanās uz ģeneratīvo AI apdraud ārstu kritiskās domāšanas prasmes
Pārmērīga paļaušanās uz ģeneratīvo AI var vājināt jauno un topošo ārstu kritiskās domāšanas prasmes, vienlaikus potenciāli palielinot esošo datu novirzi un nevienlīdzību, brīdina tiešsaistes žurnālā publicētā redakcija.BMJ Uz pierādījumiem balstīta medicīna.
GenAI rīki jau tiek plaši izmantoti, neskatoties uz dažām institucionālajām politikām un normatīvajiem norādījumiem, uzsver autori, kuri mudina medicīnas pedagogus būt modriem un pielāgot mācību programmas un apmācību, lai mazinātu tehnoloģijas nepilnības.
AI izmantošana tagad tiek izmantota dažādos uzdevumos, taču, pieaugot tās potenciālam, pieaug risks, ka uz to var paļauties, un rodas daudzas iespējamās problēmas medicīnas studentiem un topošajiem ārstiem, atzīmē autori no Misūri Universitātes Kolumbijā, ASV.
Tas ietver:
● Automatizācijas novirze — nekritiska uzticēšanās automatizētai informācijai pēc ilgstošas lietošanas
● Kognitīvā izkraušana un domu mainošas informācijas izguves, novērtēšanas un sintēzes nodošana AI, tādējādi mazinot kritisko domāšanu un atmiņas saglabāšanu.
● Prasmju uzlabošanas prasmes, kas ir īpaši svarīgas medicīnas studentiem un jaunajiem ārstiem, kuri vispirms apgūst šo prasmi un kuriem trūkst pieredzes, lai pārbaudītu AI padomu.
● Esošo datu novirzes un nevienlīdzības stiprināšana
● Halucinācijas – plūstoša un ticama, bet neprecīza informācija
● Privātuma, drošības un datu pārvaldības pārkāpumi — īpaša problēma, ņemot vērā veselības aprūpes datu sensitīvo raksturu
Autori ierosina vairākas izmaiņas, lai mazinātu šos riskus, tostarp procesa, ne tikai gala produkta, vērtēšanu izglītības novērtējumos, pieņemot, ka audzēkņi ir izmantojuši AI.
Autori ierosina, ka kritiskie kompetenču novērtējumi, kas izslēdz AI, ir jāizstrādā, izmantojot uzraudzītas stacijas vai klātienes izmeklējumus, kas ir īpaši svarīgi saziņai pie gultas, fiziskai pārbaudei, komandas darbam un profesionālam spriedumam.
Un varētu būt prātīgi novērtēt pašu AI kā kompetenci, jo "datu pratība un AI izstrāde, izstrāde un novērtēšana tagad ir svarīgākas nekā jebkad agrāk, un šīs zināšanas vairs nav greznība medicīnas studentiem un praktikantiem," viņi piebilst.
Medicīnas praktikantiem ir jāsaprot principi un jēdzieni, kas ir AI stipro un vājo pušu pamatā, kā arī to, kur un kā AI rīkus var jēgpilni integrēt klīniskajās darbplūsmās un aprūpes ceļos. Viņi uzsver, ka praktikantiem arī jāzina, kā novērtēt paredzēto sniegumu un iespējamos novirzes laika gaitā.
"Jo īpaši ir nepieciešama uzlabota kritiskās domāšanas mācīšana, ko var panākt, radot gadījumus, kad AI rezultāti ir pareizu un apzināti nepareizu atbilžu sajaukums. Pēc tam izglītojamie pieņemtu, mainītu vai noraidītu savu lēmumu un pamatotu to ar primārajiem uz pierādījumiem balstītiem avotiem“, iesaka autori.
Autori saka, ka regulatoriem, profesionālajām biedrībām un izglītības asociācijām visā pasaulē ir jādara savs darbs, veidojot un regulāri atjauninot vadlīnijas par AI ietekmi uz medicīnisko izglītību.
Viņi secina: "Ģeneratīvajam mākslīgajam intelektam ir dokumentētas un labi izpētītas priekšrocības, taču tas nav bez kļūdām, jo īpaši medicīnas apmācību un iesācēju lietotājiem. Šie rīki var radīt avotus, iekodēt neobjektivitāti, izraisīt pārmērīgu pašpārliecinātību un negatīvi ietekmēt izglītības ceļojumu.
"Medicīnas programmām ir jābūt modriem attiecībā uz šiem riskiem un jāpielāgo savas mācību programmas un apmācības programmas, lai tās būtu priekšā un samazinātu to iespējamību”.
Avoti:
Čau, Dž.et al. (2025). Iespējamie GenAI riski medicīnas izglītībai. BMJ uz pierādījumiem balstīta medicīna. doi: 10.1136/bmjebm-2025-114339. https://ebm.bmj.com/content/30/6/406