Ein KI -Assistent kann diese Laborergebnisse für Sie interpretieren

Als Judith Miller im Juli routinemäßige Blutuntersuchungen erledigt hatte, erhielt sie am selben Tag eine Telefonwarnung, an der ihre Laborergebnisse online veröffentlicht wurden. Als ihr Arzt sie am nächsten Tag mitteilte, dass ihre Gesamttests in Ordnung waren, schrieb Miller zurück, um nach dem im Bericht aufgeführten Kohlendioxid und niedrigen Anionenlücke zu fragen.
Während der 76-jährige Milwaukee-Bewohner darauf wartete, zurück zu hören, tat Miller etwas, das Patienten zunehmend tat, wenn sie ihr Gesundheitsteam nicht erreichen können. Sie stellte ihre Testergebnisse in Claude ein und bat die KI -Assistentin, die Daten zu bewerten.
„Claude hat mir geholfen, die Anomalien klar zu verstehen“, sagte Miller. Das generative KI -Modell meldete nichts Alarmierendes, daher war sie nicht besorgt, als sie darauf wartete, von ihrem Arzt zurückzuhören, sagte sie.
Die Patienten haben beispiellose Zugang zu ihren medizinischen Unterlagen, häufig über Online -Patientenportale wie MyChart, da das Bundesgesetz die Gesundheitsorganisationen verpflichtet, elektronische Gesundheitsinformationen wie Anmerkungen zu Ansichten zu Arztbesuchen und Testergebnissen sofort freizugeben. Eine im Jahr 2023 veröffentlichte Studie ergab, dass 96% der befragten Patienten einen sofortigen Zugang zu ihren Unterlagen wünschen, auch wenn ihr Anbieter sie nicht überprüft hat.
Und viele Patienten verwenden große Sprachmodelle oder LLMs, wie Openai’s Chatgpt, Anthropics Claude und Googles Gemini, um ihre Aufzeichnungen zu interpretieren. Diese Hilfe ist jedoch mit einem Risiko verbunden. Ärzte und Patientenvertreter warnen davor, dass KI -Chatbots falsche Antworten liefern können und dass sensible medizinische Informationen möglicherweise nicht privat bleiben.
Die meisten Erwachsenen sind jedoch vorsichtig mit KI und Gesundheit. Sechsundfünfzig Prozent derjenigen, die KI verwenden oder mit ihnen interagieren, sind nicht sicher, dass Informationen von AI-Chatbots laut einer Umfrage von 2024 KFF korrekt sind. KFF ist eine gemeinnützige Organisation von Gesundheitsinformationen, die KFF Health News enthält.
„LLMs sind theoretisch sehr mächtig und können großartige Ratschläge geben, aber sie können auch wirklich schreckliche Ratschläge geben, je nachdem, wie sie angesprochen werden“, sagte Adam Rodman, ein Internist bei Beth Israel Deaconess Medical Center in Massachusetts und Vorsitzender einer Lenkungsgruppe an der Generativen AI an der Harvard Medical School.
Justin Honce, ein Neuroradiologe bei UChealth in Colorado, sagte, es kann für Patienten, die nicht medizinisch ausgebildet sind, sehr schwierig sein, zu wissen, ob KI -Chatbots Fehler machen.
„Letztendlich ist es bei LLMs nur die Notwendigkeit einer Vorsicht. Bei den neuesten Modellen werden diese Bedenken weiterhin immer weniger ein Problem bekommen, aber nicht ganz gelöst“, sagte Honce.
Rodman hat in den letzten sechs Monaten bei seinen Patienten einen Anstieg des KI -Gebrauchs verzeichnet. In einem Fall machte ein Patient einen Screenshot seines Krankenhauslabors auf MyChart und lud sie dann in Chatgpt hoch, um Fragen vor seiner Ernennung vorzubereiten. Rodman sagte, er begrüße die Patienten, die ihm zeigen, wie sie KI verwenden, und dass ihre Forschung eine Diskussionsmöglichkeit schafft.
Rund 1 von 7 Erwachsenen über 50 nutzen KI, um Gesundheitsinformationen zu erhalten, wie aus einer kürzlich durchgeführten Umfrage der University of Michigan, während 1 von 4 Erwachsenen unter 30 Jahren dies aus der KFF -Umfrage tun.
Das Internet zu nutzen, um sich für eine bessere Betreuung für sich selbst einzusetzen, ist nicht neu. Patienten haben traditionell Websites wie WebMD, PubMed oder Google verwendet, um nach den neuesten Forschungen zu suchen, und haben Ratschläge von anderen Patienten auf Social -Media -Plattformen wie Facebook oder Reddit gesucht. Die Fähigkeit der KI -Chatbots, personalisierte Empfehlungen oder zweite Meinungen in Sekunden zu generieren, ist jedoch neu.
Liz Salmi, Direktor für Kommunikation und Patienteninitiativen bei OpenNotes, einem akademischen Labor bei Beth Israel Deaconess, das sich für Transparenz im Gesundheitswesen befürwortet, hatte sich gefragt, wie gut KI bei Interpretation ist, speziell für Patienten.
In einer in diesem Jahr veröffentlichten Proof-of-Concept-Studie analysierten Salmi und Kollegen die Genauigkeit von Chatgpt-, Claude- und Gemini-Reaktionen auf die Fragen der Patienten zu einem klinischen Hinweis. Alle drei KI -Modelle haben sich gut entwickelt, aber wie die Patienten ihre Fragen anfiel, sagte Salmi. Zum Beispiel verbesserte es die Genauigkeit seiner Antworten, dem KI -Chatbot die Persona eines Klinikers zu übernehmen und ihm jeweils eine Frage zu stellen.
Privatsphäre ist ein Problem, sagte Salmi. Daher ist es wichtig, persönliche Informationen wie Ihren Namen oder Ihre Sozialversicherungsnummer von Eingabeaufforderungen zu entfernen. Die Daten gehen direkt an Technologieunternehmen, die KI -Modelle entwickelt haben, sagte Rodman und fügte hinzu, dass er sich nicht bewusst ist, die dem Gesetz über das Privatsphäre des Bundes einhalten oder die Patientensicherheit berücksichtigen. Sam Altman, CEO von OpenAI, warnte im letzten Monat vor einem Podcast, persönliche Informationen in ChatGPT zu bringen.
„Viele Menschen, die neu in der Verwendung von Großsprachmodellen sind, wissen möglicherweise nicht über Halluzinationen“, sagte Salmi und bezog sich auf eine Antwort, die sinnvoll erscheint, aber ungenau ist. Zum Beispiel führte Openai’s Whisper, ein in Krankenhäusern verwendetes Transkriptionsinstrument von AI-unterstütztem Transkription, eine imaginäre medizinische Behandlung in ein Transkript ein, wie aus einem Bericht der Associated Press hervorgeht.
Die Verwendung generativer KI erfordert eine neue Art von digitaler Gesundheitskompetenz, die das Stellen von Fragen auf eine bestimmte Weise, die Überprüfung der Antworten mit anderen KI -Modellen, das Gespräch mit Ihrem Gesundheitsteam und den Schutz Ihrer Privatsphäre online erfordert, sagte Salmi und Dave Debronkart, einen Überlebenden von Krebs und Patienten, der einen Blog der Patienten verpflichtet, die die Nutzung von AI von Patienten verpflichtet.
Patienten sind nicht die einzigen, die AI verwenden, um die Testergebnisse zu erklären. Stanford Health Care hat einen KI -Assistenten ins Leben gerufen, der seinen Ärzten hilft, Interpretationen klinischer Tests und Laborergebnisse zu entwickeln, die an Patienten gesendet werden können. Die Colorado-Forscher untersuchten die Genauigkeit von Chatgpt-generierten Zusammenfassungen von 30 Radiologieberichten sowie die Zufriedenheit von vier Patienten mit ihnen. Von den 118 gültigen Antworten von Patienten gaben 108 an, dass die CHATGPT -Zusammenfassungen Details zum Originalbericht geklärt haben.
Aber Chatgpt überbased oder unterbewertete Ergebnisse, und eine kleine, aber erhebliche Anzahl von Antworten zeigte, dass die Patienten nach dem Lesen der Zusammenfassungen eher verwirrt waren, sagte Honce, der an der Preprint -Studie teilnahm.
Nach vier Wochen und ein paar Follow-up-Nachrichten von Miller in MyChart bestellte Millers Arzt eine Wiederholung ihrer Blutarbeit und einen zusätzlichen Test, den Miller vorgeschlagen hatte. Die Ergebnisse kamen wieder normal. Miller sei erleichtert und sagte, sie sei aufgrund ihrer KI -Anfragen besser informiert worden.
„In dieser Hinsicht ist es ein sehr wichtiges Instrument“, sagte Miller. „Es hilft mir, meine Fragen zu organisieren, meine Recherchen zu machen und die Wettbewerbsbedingungen zu verbessern.“
Quellen: