ChatGPT kann schwangeren Frauen, die Rat zu einer Opioidkonsumstörung suchen, vertrauenswürdige Informationen liefern
Wenn ChatGPT richtig auf medizinisch korrekte Informationen geschult wird, kann es schwangeren Frauen, die medizinischen Rat zur Behandlung von Opioidkonsumstörungen suchen, vertrauenswürdige Informationen liefern, so eine neue Studie in der Zeitschrift für Studien zu Alkohol und Drogen, mit Sitz an der Rutgers University. Die Forschung könnte eines Tages zu Apps und Websites für Menschen führen, …
ChatGPT kann schwangeren Frauen, die Rat zu einer Opioidkonsumstörung suchen, vertrauenswürdige Informationen liefern
Wenn ChatGPT richtig auf medizinisch korrekte Informationen geschult wird, kann es schwangeren Frauen, die medizinischen Rat zur Behandlung von Opioidkonsumstörungen suchen, vertrauenswürdige Informationen liefern, so eine neue Studie in der Zeitschrift für Studien zu Alkohol und Drogen, mit Sitz an der Rutgers University.
Die Forschung könnte eines Tages zu Apps und Websites für Menschen führen, die Hilfe bei Erkrankungen suchen, die sie möglicherweise nicht persönlich mit einem Gesundheitsdienstleister besprechen möchten.
Die Suche nach Gesundheitsratschlägen im Internet ist eine gängige Praxis, die sich durch den Einsatz generativer KI-Chatbots zu beschleunigen scheint. Bei einer so komplexen und zeitkritischen Erkrankung wie der Opioidkonsumstörung in der Schwangerschaft erzeugt dies ein echtes Gefühl der Dringlichkeit, da ungenaue Informationen oder Untätigkeit sofort schädlich sein und langfristige Folgen haben können.“
Drew Herbert, Hauptautor der Studie, von der Sinclair School of Nursing der University of Missouri
Für ihre Studie stellten Forscher unter der Leitung von Drew Herbert von der Sinclair School of Nursing an der University of Missouri ChatGPT Eingabeaufforderungen zur Verfügung, die das große Sprachmodell aufforderten, sich wie ein erfahrener Kliniker zu verhalten, der eine medikamentengestützte Behandlung von Opioidkonsumstörungen in der Schwangerschaft anbietet. Die Forscher forderten das große Sprachmodell auf, seine Antworten auf Ressourcen und Richtlinien etablierter medizinischer Organisationen zu stützen, darunter der American Society of Addiction Medicine, der Substance Abuse and Mental Health Services Administration und dem American College of Obstetrics and Gynecology.
Anschließend entwickelten die Autoren die Persona einer schwangeren Frau namens „Jade“, die an einer Opioidkonsumstörung litt. Für ihre Zwecke würde Jade Informationen über eine Behandlung einholen. Anschließend nutzten die Forscher diese Persona, um ein Gespräch mit ChatGPT zu gestalten und Dinge zu schreiben wie: „Ich bin in der sechsten Woche schwanger und komme nicht von Heroin ab“ und „Wie finde ich einen Arzt? Ich lebe außerhalb von Denver.“
Herbert und Kollegen führten mit ChatGPT 30 separate Gespräche in diesem Sinne. Anschließend nahmen sie die Gespräche auf und bewerteten sie anhand einer vordefinierten Rubrik.
Sie fanden heraus, dass fast 97 % der Antworten sicher, genau und relevant waren, einschließlich Beschreibungen darüber, welche Medikamente verschrieben werden könnten, und Einzelheiten zur Suche nach einem Arzt vor Ort. Nur drei Antworten wurden als irrelevant oder ungenau bewertet.
„Der überraschendste Aspekt war die Konsistenz, mit der es Informationen lieferte, die mit der anerkannten klinischen Praxis übereinstimmten“, sagte Herbert. „Seine Genauigkeit hat unsere ursprünglichen Erwartungen weit übertroffen.“
Die Autoren weisen jedoch darauf hin, dass ChatGPT zuvor mit Parametern versorgt werden musste und dass allgemeine Anfragen nach ähnlichen Informationen möglicherweise keine Ratschläge liefern, die medizinisch akzeptiert sind.
„Unser Ziel ist nicht unbedingt, etwas völlig Neues zu bauen, sondern herauszufinden, wie wir diese leistungsstarke neue Technologie besser und sicherer nutzen können“, sagte Herbert. „Weitere zeitnahe Entwicklungen und Feinabstimmungen sind sicherlich erforderlich, ebenso wie zusätzliche Tests, darunter letztendlich auch Feldtests.“
Quellen:
Herbert, D., et al. (2025). Generative AI-Derived Information About Opioid Use Disorder Treatment During Pregnancy: An exploratory evaluation of GPT-4’s steerability for provision of trustworthy person-centered information. Journal of Studies on Alcohol and Drugs. doi.org/10.15288/jsad.24-00319