ChatGPT wird zwei: Wie der KI-Chatbot das Leben von Wissenschaftlern verändert hat
In den zwei Jahren seit der Freigabe von ChatGPT an die Öffentlichkeit nutzen Forscher es, um ihre wissenschaftlichen Texte zu verbessern, die wissenschaftliche Literatur zu überprüfen und Code zur Analyse von Daten zu schreiben. Während einige glauben, dass der Chatbot, der am 30. November 2022 populär wurde, die Produktivität von Wissenschaftlern steigert, befürchten andere, dass er Plagiate erleichtert, Ungenauigkeiten in Forschungsartikeln einführt und große Mengen an Energie verbraucht.
Das Verlagshaus Wiley mit Sitz in Hoboken, New Jersey, befragte im März und April 1.043 Forscher zu ihrer Nutzung von generativen KI-Tools wie ChatGPT und teilte die vorläufigen Ergebnisse mit Nature. Achtzig Prozent der Befragten gaben an, ChatGPT entweder privat oder beruflich genutzt zu haben, was es zu dem am weitesten verbreiteten Tool unter Akademikern macht. Drei Viertel der Befragten glaubten, dass es in den nächsten 5 Jahren wichtig sein werde, dass Forscher KI-Fähigkeiten entwickeln, um ihre Arbeit zu erledigen.
„Es gab bereits vorher KI-Textverarbeitungshelfer, aber mit der Veröffentlichung dieser sehr leistungsfähigen großen Sprachmodelle fand ein erheblicher Wandel statt“, erklärt James Zou, ein KI-Forscher an der Stanford-Universität in Kalifornien. Der Chatbot ChatGPT, entwickelt von der Technologiefirma OpenAI mit Sitz in San Francisco, war der Katalysator für diese Veränderung.
Anlässlich des zweiten Geburtstags von ChatGPT hat Nature Daten zur Nutzung zusammengestellt und mit Wissenschaftlern gesprochen, wie ChatGPT die Forschungslandschaft verändert hat.
ChatGPT in Zahlen
- 60.000: Die Mindestanzahl an wissenschaftlichen Arbeiten, die 2023 veröffentlicht wurden und voraussichtlich mit Hilfe eines großen Sprachmodells (LLM) verfasst wurden1. Dies entspricht etwas mehr als 1 % aller Artikel in der von dem Forschungsteam untersuchten Dimensions-Datenbank akademischer Veröffentlichungen.
- 10 %: Der Mindestanteil der Forschungspapiere, die von Mitgliedern der biomedizinischen Gemeinschaft in der ersten Jahreshälfte 2024 veröffentlicht wurden und voraussichtlich ihre Abstracts mit Unterstützung eines LLM verfasst haben2. Eine andere Studie schätzte diesen Anteil für die Informatikgemeinde im Februar sogar auf höhere 17.5 %3.
- 6.5–16.9 %: Der geschätzte Anteil der Peer-Reviews, die 2023 und 2024 an einer Auswahl von Top-AI-Konferenzen eingereicht wurden und vermutlich erheblich von LLMs generiert wurden4. Diese Bewertungen beurteilen Forschungspapiere oder Präsentationen, die für die Konferenzen vorgeschlagen werden.
Schreibassistent
Alle diese Zahlen, die durch die Auswertung von Mustern und Schlüsselwörtern in Texten ermittelt wurden, die charakteristisch für LLMs sind, sind wahrscheinlich konservative Schätzungen, sagt Debora Weber-Wulff, eine Informatikerin und Plagiatsforscherin an der HTW Berlin. Ihre Arbeit zeigt, dass Detektionswerkzeuge oft versagen, wenn es darum geht festzustellen, ob ein Papier mit Unterstützung von KI verfasst wurde5.
In den letzten zwei Jahren haben Wissenschaftler festgestellt, dass die Nutzung von ChatGPT zur Erstellung von Abstracts, sowie von Förderanträgen und Unterstützungsbriefen für Studierende es ihnen ermöglicht, sich auf komplexe Aufgaben zu konzentrieren. „Die Dinge, die unsere Zeit wert sind, sind die schwierigen Fragen und die kreativen Hypothesen“, sagt Milton Pividori, ein medizinischer Informatiker an der University of Colorado School of Medicine in Aurora.
Forschende berichten, dass LLMs besonders hilfreich sind, um Sprachbarrieren zu überwinden. „Es demokratisiert das Schreiben und hilft Menschen, für die Englisch eine zweite Sprache ist“, erklärt Gabe Gomes, ein Chemiker an der Carnegie Mellon University in Pittsburgh, Pennsylvania. Eine Analyse, die vor der Peer-Review im November auf dem Preprint-Server SSRN veröffentlicht wurde, ergab, dass die Qualität des Schreibens in Arbeiten von Autoren, deren Muttersprache nicht Englisch ist, nach der Veröffentlichung von ChatGPT besser wurde, und zwar mehr als das Schreiben von Autoren, die fließend Englisch sprechen6.
Seit seiner Veröffentlichung im Jahr 2022 hat ChatGPT mehrere Upgrades erfahren. GPT-4, veröffentlicht im März 2023, beeindruckte die Nutzer mit seiner Fähigkeit, menschenähnliche Texte zu generieren. Das neueste Modell, o1, das im September angekündigt wurde und einigen zahlenden Kunden sowie bestimmten Entwicklern im Test zur Verfügung steht, kann laut OpenAI „komplexe Aufgaben analysieren und schwierigere Probleme als frühere Modelle in Wissenschaft, Programmierung und Mathematik lösen“. Kyle Kabasares, Datenwissenschaftler am Bay Area Environmental Research Institute in Moffett Field, Kalifornien, verwendete o1, um einige Codes aus seinem Doktoratsprojekt zu reproduzieren. Als er die Informationen aus dem Methodenabschnitt seiner Forschungsarbeit eingab, schrieb das KI-System in nur einer Stunde Code, für dessen Erstellung er fast ein Jahr seiner Graduiertenstudien benötigt hatte.
Einschränkungen und Potenzial
Ein Bereich, in dem ChatGPT und ähnliche KI-Systeme bisher weniger erfolgreich waren, ist die Durchführung von Literaturübersichten, sagt Pividori. „Sie helfen uns nicht wirklich, produktiver zu sein“, erklärt er, da ein Forscher die relevanten Artikel vollständig lesen und verstehen muss. „Wenn das Papier nicht zentral für Ihre Forschung ist, können Sie möglicherweise KI-Tools verwenden, um es zusammenzufassen“, fügt er hinzu. Aber LLMs haben gezeigt, dass sie halluzinieren7 – das heißt, sie erfinden Informationen. Beispielsweise könnten sie über Zahlen sprechen, die in einem Artikel gar nicht existieren.
Ein weiteres Anliegen von Forschenden beim Einsatz von LLMs ist der Datenschutz. Wenn Wissenschaftler unveröffentlichte Originaldaten in eines dieser KI-Tools eingeben, um ein Papier zu schreiben, besteht beispielsweise das Risiko, dass der Inhalt zur Schulung aktualisierter Versionen dieser Modelle verwendet wird. „Das sind schwarze Kästen“, erklärt Weber-Wulff. „Man hat keine Ahnung, was mit den Daten passiert, die man dort hochlädt.“
Um dieses Risiko zu vermeiden, wählen einige Forscher kleinere, lokale Modelle anstelle von ChatGPT. „Man führt es auf seinem Computer aus, und es wird nichts extern geteilt“, sagt Pividori. Er fügt hinzu, dass bestimmte ChatGPT-Abonnementpläne sicherstellen, dass deine Daten nicht zur Schulung des Modells verwendet werden.
Eine große Frage, die Forscher im vergangenen Jahr verfolgt haben, ist, ob ChatGPT über die Rolle eines virtuellen Assistenten hinausgehen und eine KI-Wissenschaftlerin werden kann. Einige erste Bemühungen lassen darauf schließen, dass dies möglich ist. Zou leitet die Entwicklung eines virtuellen Labors, in dem verschiedene LLMs die Rolle von Wissenschaftlern in einem interdisziplinären Team übernehmen, während ein menschlicher Wissenschaftler hochrangiges Feedback gibt. „Sie arbeiten zusammen, um neue Forschungsprojekte zu formulieren“, sagt er. Im vergangenen Monat veröffentlichten Zou und seine Kollegen die Ergebnisse eines dieser Projekte auf dem Preprint-Server bioRxiv vor der Peer-Review8. Das virtuelle Labor entwarf Nanobodies – eine Art kleiner Antikörper – die in der Lage sind, an Varianten des Coronavirus SARS-CoV-2 zu binden, das die COVID-19-Pandemie verursachte. Menschliche Forscher validierten die Arbeit durch Experimente und identifizierten zwei vielversprechende Kandidaten für weitere Untersuchungen.
Gomes und seine Kollegen sind ebenfalls begeistert von der Möglichkeit, ChatGPT im Labor einzusetzen. Sie nutzen das Tool, um mehrere chemische Reaktionen mit Hilfe eines Robotersystems durchzuführen, das sie Ende letzten Jahres eingesetzt haben. „Die Erwartung ist, dass diese Modelle in der Lage sein werden, neue Wissenschaft zu entdecken“, sagt Gomes.
-
Gray, A. Preprint auf arXiv https://doi.org/10.48550/arXiv.2403.16887 (2024).
-
Kobak, D., González-Márquez, R., Horvát, E.-Á. & Lause, J. Preprint auf arXiv https://doi.org/10.48550/arXiv.2406.07016 (2024).
-
Liang, W. et al. Preprint auf arXiv https://doi.org/10.48550/arXiv.2404.01268 (2024).
-
Liang, W. et al. Preprint auf arXiv https://doi.org/10.48550/arXiv.2403.07183 (2024).
-
Weber-Wulff, D. et al. Int. J. Educ. Integr. 19, 26 (2023).
-
Liang, Y., Yang, T. & Zhu, F. Preprint auf SSRN https://doi.org/10.2139/ssrn.4992755 (2024).
-
Farquhar, S. et al. Nature 630, 625–630 (2024).
-
Swanson, K., Wu, W., Bulaong, N. L., Pak, J. E. & Zou, J. Preprint auf bioRxiv https://doi.org/10.1101/2024.11.11.623004 (2024).