Možnosti a omezení použití velkého jazykového modelu pro odpověď na zprávy pacientů

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Objevte dopad velkých jazykových modelů na zasílání zpráv pacientům a zjistěte, jak Mass General Brigham zlepšuje vzdělávání pacientů. Výsledky v Lancet Digital Health.

Entdecken Sie die Auswirkungen von großen Sprachmodellen auf Patientennachrichten und erfahren Sie, wie Mass General Brigham die Patientenaufklärung verbessert. Ergebnisse in Lancet Digital Health.
Objevte dopad velkých jazykových modelů na zasílání zpráv pacientům a zjistěte, jak Mass General Brigham zlepšuje vzdělávání pacientů. Výsledky v Lancet Digital Health.

Možnosti a omezení použití velkého jazykového modelu pro odpověď na zprávy pacientů

Nová studie od výzkumníků z Mass General Brigham ukazuje, že velké jazykové modely (LLM), což je typ generativní umělé inteligence, mohou pomoci snížit pracovní zátěž lékařů a zlepšit vzdělávání pacientů, když se používají k vytváření odpovědí na zprávy pacientů. Studie také zjistila omezení LLM, která mohou ovlivnit bezpečnost pacientů, což naznačuje, že pečlivé sledování komunikace generované LLM je nezbytné pro bezpečné používání. Výsledky zveřejněné vDigitální zdraví Lancetzdůraznit potřebu měřeného přístupu k implementaci LLM.

Zvyšující se požadavky na administrativu a dokumentaci vedly k nárůstu syndromu vyhoření lékařů. Pro zefektivnění a automatizaci pracovních postupů lékařů přijali prodejci elektronických zdravotních záznamů (EHR) generativní algoritmy umělé inteligence, které pomáhají lékařům vytvářet zprávy pacientům. Nicméně účinnost, bezpečnost a klinický dopad jejich použití nebyly známy.

Generativní AI má potenciál nabídnout to nejlepší z obou světů, snížit zátěž pro lékaře a zároveň lépe vzdělávat pacienta. Na základě zkušeností našeho týmu s prací s LLM však máme obavy z potenciálních rizik spojených s integrací LLM do systémů zasílání zpráv. Jak se integrace LLM do EHR stává běžnější, naším cílem v této studii bylo identifikovat relevantní výhody a nedostatky.“

Danielle Bitterman, MD,Dopisující autor,Člen fakulty v programu Artificial Intelligence in Medicine (AIM) na Mass General Brigham a lékař na Klinice radiační onkologie v Brigham and Women’s Hospital

Pro tuto studii výzkumníci použili OpenAI GPT-4, základní LLM, ke generování 100 scénářů o pacientech s rakovinou a doprovodné otázky pacienta. Studie nepoužívala otázky od skutečných pacientů. Šest radiačních onkologů odpovídalo na otázky manuálně; GPT-4 pak vygeneroval odpovědi na otázky. Nakonec byly odpovědi generované LLM poskytnuty stejným radiačním onkologům k posouzení a úpravě. Radiační onkologové nevěděli, zda odpovědi napsal GPT-4 nebo člověk, a ve 31 % případů předpokládali, že odpověď vygenerovanou LLM napsal člověk.

V průměru byly odpovědi autorů lékaře kratší než odpovědi autorů LLM. GPT-4 měla tendenci zahrnovat více informací pro pacienty, ale ve svých pokynech byla méně direktivní. Lékaři uvedli, že podpora LLM zlepšila jejich vnímanou efektivitu a odpovědi generované LLM považovaly za bezpečné v 82,1 procentech času a přijatelné pro odeslání pacientovi bez dalšího zpracování v 58,3 procentech času. Výzkumníci také zaznamenali některé nedostatky: Pokud se neřeší, 7,1 procenta odpovědí generovaných LLM by mohlo představovat riziko pro pacienta a 0,6 procenta odpovědí by mohlo představovat riziko smrti, většinou proto, že odpověď GPT-4 nedokázala pacienta naléhavě informovat, aby okamžitě vyhledal lékařskou pomoc.

Je třeba poznamenat, že odpovědi vygenerované LLM/upravené lékařem byly svou délkou a obsahem více podobné odpovědím generovaným LLM než manuálním odpovědím. V mnoha případech si lékaři ponechali vzdělávací obsah vytvořený LLM, což naznačuje, že jej považovali za hodnotný. I když by to mohlo podpořit vzdělávání pacientů, výzkumníci zdůrazňují, že přílišné spoléhání na LLM může také představovat rizika kvůli jejich prokázaným nedostatkům.

Vznik nástrojů umělé inteligence ve zdravotnictví má potenciál pozitivně změnit kontinuitu péče a je nezbytné vyvážit jejich inovační potenciál se závazkem k bezpečnosti a kvalitě. Mass General Brigham je lídrem v odpovědném používání AI a provádí hloubkový výzkum nových a vznikajících technologií na podporu začlenění AI do poskytování zdravotní péče, podpory pracovní síly a administrativních procesů. Mass General Brigham v současné době vede pilotní projekt na integraci generativní umělé inteligence do elektronických zdravotních záznamů za účelem vytváření odpovědí na zprávy z portálu pacientů a testuje technologii v řadě ambulantních praxí napříč zdravotnickým systémem.

V budoucnu budou autoři studie zkoumat, jak pacienti vnímají komunikaci založenou na LLM a jak rasové a demografické charakteristiky pacientů ovlivňují reakce generované LLM na základě známých algoritmických zkreslení v LLM.

„Informování člověka je základním bezpečnostním krokem, pokud jde o používání umělé inteligence v medicíně, ale není to univerzální řešení,“ řekl Bitterman. "Vzhledem k tomu, že poskytovatelé stále více spoléhají na LLM, můžeme nám uniknout chyby, které by mohly vést k poškození pacienta. Tato studie ukazuje potřebu systémů pro sledování kvality LLM, školení lékařů, aby náležitě monitorovali výsledky LLM, a více dovedností v oblasti umělé inteligence pro pacienty a lékaře." a na základní úrovni lepší pochopení toho, jak se vypořádat s chybami, kterých se LLM dopouštějí.“


Zdroje:

Journal reference:

Chen, S., a kol. (2024) Účinek použití velkého jazykového modelu k reakci na zprávy pacientů.Digitální zdraví Lancet. doi.org/10.1016/S2589-7500(24)00060-8.