Възможности и ограничения при използване на голям езиков модел за отговор на съобщения на пациенти

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Открийте въздействието на големите езикови модели върху съобщенията на пациентите и научете как Mass General Brigham подобрява обучението на пациентите. Резултати в Lancet Digital Health.

Entdecken Sie die Auswirkungen von großen Sprachmodellen auf Patientennachrichten und erfahren Sie, wie Mass General Brigham die Patientenaufklärung verbessert. Ergebnisse in Lancet Digital Health.
Открийте въздействието на големите езикови модели върху съобщенията на пациентите и научете как Mass General Brigham подобрява обучението на пациентите. Резултати в Lancet Digital Health.

Възможности и ограничения при използване на голям езиков модел за отговор на съобщения на пациенти

Ново проучване от изследователи от Mass General Brigham показва, че големите езикови модели (LLM), вид генеративен AI, могат да помогнат за намаляване на натоварването на лекарите и да подобрят обучението на пациентите, когато се използват за съставяне на отговори на съобщения на пациенти. Проучването също така установи ограничения на LLM, които могат да повлияят на безопасността на пациентите, което предполага, че внимателното наблюдение на комуникациите, генерирани от LLM, е от съществено значение за безопасната употреба. Резултати, публикувани вLancet Digital Healthподчертават необходимостта от премерен подход към прилагането на LLM.

Нарастващите административни изисквания и изисквания за документация доведоха до увеличаване на прегарянето на лекарите. За да рационализират и автоматизират работните потоци на лекарите, доставчиците на електронни здравни досиета (EHR) са приели генеративни AI алгоритми, за да помогнат на лекарите да съставят съобщения до пациентите. Ефикасността, безопасността и клиничното въздействие на употребата им обаче са неизвестни.

Generative AI има потенциала да предложи най-доброто от двата свята, намалявайки тежестта върху клинициста, като същевременно по-добре обучава пациента. Въпреки това, въз основа на опита на нашия екип в работата с LLM, имаме опасения относно потенциалните рискове, свързани с интегрирането на LLM в системи за съобщения. Тъй като интегрирането на LLM в EHR става все по-често срещано, нашата цел в това проучване беше да идентифицираме съответните предимства и недостатъци.“

Даниел Битърман, д-р,Кореспондент автор,Член на факултета в програмата за изкуствен интелект в медицината (AIM) в Mass General Brigham и лекар в Отделението по радиационна онкология в Brigham and Women’s Hospital

За проучването изследователите са използвали GPT-4 на OpenAI, основен LLM, за да генерират 100 сценария за пациенти с рак и съпътстващ въпрос на пациента. Проучването не използва въпроси от действителни пациенти. Шестима радиационни онколози отговориха ръчно на въпросите; След това GPT-4 генерира отговори на въпросите. И накрая, генерираните от LLM отговори бяха предоставени на същите радиационни онколози за преглед и редактиране. Радиационните онколози не знаеха дали GPT-4 или човек е написал отговорите и в 31% от случаите предположиха, че отговорът, генериран от LLM, е написан от човек.

Като цяло, отговорите на лекарите са по-кратки от отговорите на LLM. GPT-4 имаше тенденция да включва повече образование за пациентите, но беше по-малко директивен в своите инструкции. Лекарите съобщават, че поддръжката на LLM е подобрила възприеманата им ефективност и считат отговорите, генерирани от LLM, безопасни в 82,1 процента от времето и приемливи за изпращане на пациент без допълнителна обработка в 58,3 процента от времето. Изследователите отбелязват и някои недостатъци: ако не бъдат адресирани, 7,1 процента от отговорите, генерирани от LLM, могат да представляват риск за пациента и 0,6 процента от отговорите могат да представляват риск от смърт, най-вече защото отговорът на GPT-4 не е успял спешно да информира пациента да потърси незабавна медицинска помощ.

Трябва да се отбележи, че генерираните от LLM/редактираните от лекар отговори бяха по-сходни по дължина и съдържание с отговорите, генерирани от LLM, отколкото с ръчните отговори. В много случаи лекарите са запазили образователно съдържание, създадено от LLM, което предполага, че го намират за ценно. Въпреки че това може да насърчи обучението на пациентите, изследователите подчертават, че прекомерното разчитане на LLM може също да представлява риск поради техните доказани недостатъци.

Появата на AI инструменти в здравеопазването има потенциала да трансформира положително континуума на грижите и е наложително да се балансира техният потенциал за иновации с ангажимент за безопасност и качество. Mass General Brigham е лидер в отговорното използване на AI и провежда задълбочени изследвания на нови и нововъзникващи технологии в подкрепа на включването на AI в предоставянето на здравни грижи, поддръжката на работната сила и административните процеси. Mass General Brigham понастоящем ръководи пилотен проект за интегриране на генеративен AI в електронното здравно досие за авторски отговори на съобщения в портала на пациентите и тества технологията в редица амбулаторни практики в здравната система.

Занапред авторите на изследването ще проучат как пациентите възприемат базираната на LLM комуникация и как расовите и демографски характеристики на пациентите влияят върху генерираните от LLM отговори въз основа на известни алгоритмични отклонения в LLM.

„Поддържането на информация на хората е важна стъпка за безопасност, когато става въпрос за използване на ИИ в медицината, но това не е универсално решение“, каза Битерман. „Тъй като доставчиците разчитат все повече и повече на LLMs, може да пропуснем грешки, които биха могли да доведат до увреждане на пациентите. Това проучване показва необходимостта от системи за наблюдение на качеството на LLMs, обучение за клиницистите да наблюдават по подходящ начин резултатите от LLM и повече AI умения за пациенти и клиницисти.“ и, на фундаментално ниво, по-добро разбиране за това как да се справят с грешките, които LLM правят.“


източници:

Journal reference:

Чен, С., и др. (2024) Ефектът от използването на голям езиков модел за отговор на съобщения на пациенти.The Lancet Digital Health. doi.org/10.1016/S2589-7500(24)00060-8.