Possibilidades e limitações do uso de um modelo de linguagem amplo para responder às mensagens dos pacientes

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Descubra o impacto dos grandes modelos de linguagem nas mensagens dos pacientes e saiba como o Mass General Brigham está melhorando a educação dos pacientes. Resultados em Lancet Digital Health.

Entdecken Sie die Auswirkungen von großen Sprachmodellen auf Patientennachrichten und erfahren Sie, wie Mass General Brigham die Patientenaufklärung verbessert. Ergebnisse in Lancet Digital Health.
Descubra o impacto dos grandes modelos de linguagem nas mensagens dos pacientes e saiba como o Mass General Brigham está melhorando a educação dos pacientes. Resultados em Lancet Digital Health.

Possibilidades e limitações do uso de um modelo de linguagem amplo para responder às mensagens dos pacientes

Um novo estudo realizado por pesquisadores do Mass General Brigham mostra que grandes modelos de linguagem (LLMs), um tipo de IA generativa, podem ajudar a reduzir a carga de trabalho do médico e melhorar a educação do paciente quando usados ​​para redigir respostas às mensagens do paciente. O estudo também encontrou limitações nos LLMs que podem impactar a segurança do paciente, sugerindo que o monitoramento cuidadoso das comunicações geradas pelos LLMs é essencial para o uso seguro. Resultados publicados emLanceta Saúde Digitalenfatizar a necessidade de uma abordagem ponderada para a implementação do LLM.

O aumento dos requisitos administrativos e de documentação levou a um aumento no esgotamento médico. Para agilizar e automatizar os fluxos de trabalho dos médicos, os fornecedores de registros eletrônicos de saúde (EHR) adotaram algoritmos de IA generativos para ajudar os médicos a redigir mensagens aos pacientes. No entanto, a eficácia, segurança e impacto clínico da sua utilização eram desconhecidos.

A IA generativa tem o potencial de oferecer o melhor dos dois mundos, reduzindo a carga do médico e educando melhor o paciente. No entanto, com base na experiência da nossa equipe trabalhando com LLMs, temos preocupações sobre os riscos potenciais associados à integração de LLMs em sistemas de mensagens. À medida que a integração do LLM nos EHRs se torna mais comum, o nosso objetivo neste estudo foi identificar benefícios e deficiências relevantes.”

Danielle Bitterman, médica,Autor correspondente,Membro do corpo docente do programa de Inteligência Artificial em Medicina (AIM) do Mass General Brigham e médico do Departamento de Oncologia de Radiação do Brigham and Women’s Hospital

Para o estudo, os pesquisadores usaram o GPT-4 da OpenAI, um LLM básico, para gerar 100 cenários sobre pacientes com câncer e uma pergunta do paciente que os acompanha. O estudo não utilizou perguntas de pacientes reais. Seis radiooncologistas responderam às questões manualmente; O GPT-4 então gerou respostas para as perguntas. Finalmente, as respostas geradas pelo LLM foram fornecidas aos mesmos oncologistas de radiação para revisão e edição. Os oncologistas de radiação não sabiam se o GPT-4 ou um ser humano tinha escrito as respostas e em 31% dos casos assumiram que uma resposta gerada pelo LLM tinha sido escrita por um ser humano.

Em média, as respostas de autoria médica foram mais curtas do que as respostas de autoria de LLM. O GPT-4 tendia a incluir mais educação para os pacientes, mas era menos diretivo em suas instruções. Os médicos relataram que o suporte do LLM melhorou sua eficiência percebida e consideraram as respostas geradas pelo LLM seguras em 82,1% das vezes e aceitáveis ​​para envio a um paciente sem processamento adicional em 58,3% das vezes. Os investigadores também observaram algumas deficiências: se não forem abordadas, 7,1 por cento das respostas geradas pelo LLM podem representar um risco para o paciente e 0,6 por cento das respostas podem representar um risco de morte, principalmente porque a resposta GPT-4 não informou urgentemente o paciente para procurar cuidados médicos imediatos.

É digno de nota que as respostas geradas pelo LLM/editadas por médicos foram mais semelhantes em extensão e conteúdo às respostas geradas pelo LLM do que às respostas manuais. Em muitos casos, os médicos mantiveram o conteúdo educacional criado pelo LLM, sugerindo que o consideraram valioso. Embora isto possa promover a educação dos pacientes, os investigadores enfatizam que a dependência excessiva dos LLMs também pode representar riscos devido às suas deficiências comprovadas.

O surgimento de ferramentas de IA nos cuidados de saúde tem o potencial de transformar positivamente a continuidade dos cuidados de saúde e é imperativo equilibrar o seu potencial de inovação com um compromisso com a segurança e a qualidade. O Mass General Brigham é líder no uso responsável de IA e conduz pesquisas aprofundadas sobre tecnologias novas e emergentes para apoiar a incorporação de IA na prestação de cuidados de saúde, apoio à força de trabalho e processos administrativos. O Mass General Brigham está atualmente liderando um projeto piloto para integrar IA generativa no registro eletrônico de saúde para criar respostas às mensagens do portal do paciente e está testando a tecnologia em uma série de práticas ambulatoriais em todo o sistema de saúde.

No futuro, os autores do estudo examinarão como os pacientes percebem a comunicação baseada em LLM e como as características raciais e demográficas dos pacientes influenciam as respostas geradas por LLM com base em vieses algorítmicos conhecidos em LLMs.

“Manter um ser humano informado é um passo de segurança essencial quando se trata de usar IA na medicina, mas não é uma solução única para todos”, disse Bitterman. "À medida que os provedores confiam cada vez mais nos LLMs, podemos deixar passar erros que poderiam resultar em danos aos pacientes. Este estudo mostra a necessidade de sistemas para monitorar a qualidade dos LLMs, treinamento para médicos para monitorar adequadamente os resultados do LLM e mais habilidades de IA para pacientes e médicos." e, a um nível fundamental, uma melhor compreensão de como lidar com os erros que os LLMs cometem.”


Fontes:

Journal reference:

Chen, S., e outros. (2024) O efeito do uso de um grande modelo de linguagem para responder às mensagens dos pacientes.The Lancet Saúde Digital. doi.org/10.1016/S2589-7500(24)00060-8.