Ātrā mākslīgā intelekta ieviešana primārajā aprūpē rada bažas par drošību
Sākot ar digitālajiem rakstniekiem un beidzot ar ChatGPT, mākslīgais intelekts (AI) ātri nonāk primārās aprūpes praksē. Jauns Sidnejas universitātes pētījums brīdina, ka tehnoloģija apsteidz drošības kontroli un apdraud pacientus un veselības aprūpes sistēmas. Pētījumā, kas publicēts žurnālā The Lancet Primary Care, pamatojoties uz datiem no ASV, Apvienotās Karalistes, Austrālijas,...
Ātrā mākslīgā intelekta ieviešana primārajā aprūpē rada bažas par drošību
Sākot ar digitālajiem rakstniekiem un beidzot ar ChatGPT, mākslīgais intelekts (AI) ātri nonāk primārās aprūpes praksē. Jauns Sidnejas universitātes pētījums brīdina, ka tehnoloģija apsteidz drošības kontroli un apdraud pacientus un veselības aprūpes sistēmas.
Pētījums, kas publicētsLancet primārā aprūpeapkopoja globālu ieskatu par to, kā mākslīgais intelekts tiek izmantots primārajā aprūpē, izmantojot datus no ASV, Apvienotās Karalistes, Austrālijas, vairākām Āfrikas valstīm, Latīņamerikas, Īrijas un citiem reģioniem. Tika konstatēts, ka AI rīki, piemēram, ChatGPT, AI Scribes un pacientiem paredzētas lietotnes, arvien vairāk tiek izmantoti klīniskiem vaicājumiem, dokumentācijai un pacientu konsultācijām, taču lielāko daļu no tiem izmanto bez rūpīgas novērtēšanas vai normatīvās uzraudzības.
Primārā aprūpe ir veselības aprūpes sistēmu mugurkauls, nodrošinot pieejamu un nepārtrauktu aprūpi. AI var mazināt spiedienu uz pārslogotiem pakalpojumiem, taču bez drošības pasākumiem mēs riskējam ar neparedzētām sekām pacientu drošībai un aprūpes kvalitātei.
Asociētā profesore Liliana Laranjo, galvenā pētniece, Vestmīdas lietišķo pētījumu centra Horizon stipendiāte
Ģimenes ārsti un pacienti vēršas pie AI, taču pierādījumi aizkavējas
Primārā aprūpe visā pasaulē ir pakļauta spiedienam, sākot no darbaspēka trūkuma līdz ārstu izdegšanai un beidzot ar pieaugošo veselības aprūpes sniegšanas sarežģītību, ko saasina COVID-19 pandēmija. AI tiek reklamēts kā risinājums ar rīkiem, kas ietaupa laiku, apvienojot konsultācijas, automatizējot administrēšanu un atbalstot lēmumu pieņemšanu.
Apvienotajā Karalistē katrs piektais ģimenes ārsts ziņoja, ka 2024. gadā klīniskajā praksē izmantojis ģeneratīvo AI. Tomēr pārskatā tika konstatēts, ka lielākā daļa pētījumu par AI primārajā aprūpē ir balstīti uz simulācijām, nevis reāliem pētījumiem, atstājot kritiskas nepilnības efektivitātes, drošības un vienlīdzības ziņā.
Ģimenes ārstu skaits, kas Austrālijā izmanto ģeneratīvo AI, nav ticami zināms, taču tiek lēsts, ka tas ir 40 procenti.
"AI jau atrodas mūsu klīnikās, taču bez Austrālijas datiem par to, cik ģimenes ārstu to izmanto, vai pienācīgas uzraudzības, mēs esam akli, kad runa ir par drošību," sacīja asociētais profesors Laranjo.
Lai gan AI rakstītāji un apkārtējās klausīšanās tehnoloģijas var samazināt kognitīvo slodzi un uzlabot ģimenes ārstu apmierinātību ar darbu, tie rada arī tādus riskus kā automatizācijas aizspriedumi un svarīgu sociālo vai biogrāfisko datu zudums medicīniskajos ierakstos.
"Mūsu pētījums atklāja, ka daudzi ģimenes ārsti, kuri izmanto AI rakstītājus, nevēlas atgriezties pie mašīnrakstīšanas. Viņi saka, ka tas paātrina konsultācijas un ļauj viņiem koncentrēties uz pacientiem, taču šie rīki var palaist garām svarīgu personas informāciju un ieviest neobjektivitāti," sacīja asociētais profesors Laranjo.
Pacientiem simptomu pārbaudītāji un veselības lietotnes sola ērtības un personalizētu aprūpi, taču to precizitāte bieži atšķiras, un daudziem trūkst iespēju veikt neatkarīgu novērtējumu.
"Ģeneratīvie modeļi, piemēram, ChatGPT, var izklausīties pārliecinoši, taču faktiski tie ir nepareizi," sacīja asociētais profesors Laranjo. "Viņi bieži vien piekrīt lietotājiem pat tad, ja viņi kļūdās, kas ir bīstami pacientiem un izaicinoši ārstiem."
AI tiesiskuma un vides riski
Eksperti brīdina, ka, lai gan mākslīgais intelekts sola ātrāku diagnozi un personalizētu aprūpi, tas var arī padziļināt veselības atšķirības, jo tiek iezagta neobjektivitāte. Piemēram, dermatoloģijas rīki bieži nepareizi diagnosticē tumšākus ādas toņus, kas apmācības datu kopās parasti ir nepietiekami.
Un otrādi, pētnieki apgalvo, ka labi izstrādāts mākslīgais intelekts var novērst atšķirības: Artrīta pētījums dubultoja to melnādaino pacientu skaitu, kuriem ir tiesības uz ceļa locītavas protezēšanu, izmantojot algoritmu, kas apmācīts, izmantojot dažādu datu kopu, tādējādi ļaujot labāk prognozēt pacientu ziņotās sāpes ceļgalos, salīdzinot ar ārstu standarta rentgena rādījumiem.
"Ignorējot sociālekonomiskos faktorus un universālo dizainu, AI primārajā aprūpē var kļūt no izrāviena līdz neveiksmei," sacīja asociētais profesors Laranjo.
Arī vides izmaksas ir milzīgas. Apmācība GPT-3, ChatGPT versija, kas tika izlaista 2020. gadā, izlaida oglekļa dioksīda daudzumu, kas atbilst 188 lidojumiem starp Ņujorku un Sanfrancisko. Datu centri tagad patērē aptuveni 1 procentu no pasaules elektroenerģijas patēriņa, un Īrijā datu centri ir atbildīgi par vairāk nekā 20 procentiem no valsts elektroenerģijas patēriņa.
"AI ietekme uz vidi ir izaicinājums," sacīja asociētais profesors Laranjo. "Mums ir vajadzīgas ilgtspējīgas pieejas, kas līdzsvaro inovāciju ar vienlīdzību un planētas veselību."
Pētnieki mudina valdības, klīnicistus un tehnoloģiju izstrādātājus noteikt prioritātes:
- robuste Bewertung und reale Überwachung von KI-Tools
- Regulierungsrahmen, die mit der Innovation Schritt halten
- Schulung von Ärzten und der Öffentlichkeit zur Verbesserung der KI-Kenntnisse
- Strategien zur Voreingenommenheitsminderung, um Gerechtigkeit in der Gesundheitsversorgung sicherzustellen
- nachhaltige Praktiken zur Reduzierung der Umweltauswirkungen von KI.
"AI piedāvā iespēju pārveidot primāro aprūpi, taču inovācija nedrīkst notikt uz drošības vai taisnīguma rēķina," sacīja asociētais profesors Laranjo. "Mums ir vajadzīgas starpnozaru partnerības, lai nodrošinātu, ka AI sniedz labumu visiem — ne tikai tiem, kas lietpratīgi vai labi aprīkoti."
Avoti:
Laranjo, L.,et al.(2025). Mākslīgais intelekts primārajā aprūpē: jauninājumi krustcelēs.Lancet primārā aprūpe. DOI: 10.1016/j.lanprc.2025.100078. https://www.thelancet.com/journals/lanprc/article/PIIS3050-5143(25)00078-0/fulltext