KI-Chatbot bringt Verschwörungstheoretiker zum Hinterfragen ihrer Überzeugungen
Forschende haben gezeigt, dass Künstliche Intelligenz (KI) ein wertvolles Werkzeug im Kampf gegen Verschwörungstheorien sein könnte. Sie entwickelten einen Chatbot, der falsche Informationen widerlegen und die Menschen dazu anregen kann, ihre Denkweise zu hinterfragen.
In einer Studie, die am 12. September in Science veröffentlicht wurde1, verbrachten die Teilnehmer einige Minuten mit dem Chatbot, der detaillierte Antworten und Argumente lieferte, was zu einem Denkumschwung führte, der mehrere Monate anhielt. Dieses Ergebnis deutet darauf hin, dass Fakten und Beweise tatsächlich die Meinung der Menschen ändern können.
„Diese Arbeit stellte viele bestehende Literatur in Frage, die davon ausgeht, dass wir in einer postfaktischen Gesellschaft leben“, sagt Katherine FitzGerald, die an der Queensland University of Technology in Brisbane, Australien, zu Verschwörungstheorien und Fehlinformationen forscht.
Frühere Analysen haben nahegelegt, dass Menschen von Verschwörungstheorien angezogen werden, weil sie Sicherheit und Gewissheit in einer turbulenten Welt suchen. Aber „was wir in dieser Arbeit entdeckt haben, widerspricht dieser traditionellen Erklärung“, sagt Mitautorin Thomas Costello, ein Psychologieforscher an der American University in Washington DC. „Eine der potenziell spannenden Anwendungen dieser Forschung ist, dass man KI nutzen könnte, um Verschwörungstheorien im realen Leben zu widerlegen.“
Schädliche Ideen
Obwohl viele Verschwörungstheorien kaum gesellschaftliche Auswirkungen haben, können die, die an Popularität gewinnen, „echten Schaden anrichten“, sagt FitzGerald. Sie verweist auf den Angriff auf das US-Kapitol am 6. Januar 2021, der teilweise durch Behauptungen über eine manipulierte Präsidentschaftswahl 2020 angeheizt wurde, sowie auf die anti-vakzine Rhetorik, die die Impfakzeptanz gegen COVID-19 beeinträchtigte, als Beispiele.
Es ist möglich, Menschen davon zu überzeugen, ihre Meinung zu ändern, doch dies kann zeitaufwändig und anstrengend sein – und die schiere Anzahl und Vielfalt von Verschwörungstheorien macht es schwierig, das Problem in größerem Maßstab anzugehen. Costello und seine Kollegen wollten jedoch das Potenzial von großen Sprachmodellen (LLMs) untersuchen – diese können große Informationsmengen zügig verarbeiten und menschenähnliche Antworten generieren –, um Verschwörungstheorien zu bekämpfen. „Sie wurden im Internet trainiert, kennen alle Verschwörungstheorien und deren Gegenargumente, sodass es eine sehr natürliche Ergänzung zu sein schien“, sagt Costello.
Glauben Sie es oder nicht
Die Forscher entwickelten einen maßgeschneiderten Chatbot unter Verwendung von GPT-4 Turbo – dem neuesten LLM des ChatGPT-Erstellers OpenAI mit Sitz in San Francisco, Kalifornien –, der darauf trainiert wurde, überzeugend gegen Verschwörungen zu argumentieren. Anschließend rekrutierten sie über 1.000 Teilnehmer, deren Demografie mit der US-Volkszählung in Bezug auf Merkmale wie Geschlecht und Ethnizität übereinstimmte. Costello sagt, dass das Team durch die Rekrutierung „von Personen mit unterschiedlichen Lebenserfahrungen und eigenen Perspektiven“ die Fähigkeit des Chatbots beurteilen konnte, eine Vielzahl von Verschwörungen zu widerlegen.
Jeder Teilnehmer wurde gebeten, eine Verschwörungstheorie zu beschreiben, zu erklären, warum sie diese für wahr hielten, und die Stärke ihrer Überzeugung als Prozentsatz auszudrücken. Diese Details wurden mit dem Chatbot geteilt, der daraufhin ein Gespräch mit dem Teilnehmer führte, in dem er Informationen und Beweise anführte, die die Verschwörung untergruben oder widerlegten, und auf die Fragen des Teilnehmers reagierte. Die Antworten des Chatbots waren gründlich und detailliert und erreichten oft Hunderte von Wörtern. Im Durchschnitt dauerte jedes Gespräch etwa 8 Minuten.
Der Ansatz erwies sich als effektiv: Das Selbstvertrauen der Teilnehmer in ihre gewählte Verschwörungstheorie sank im Durchschnitt um 21 %, nachdem sie mit dem Chatbot interagiert hatten. Und 25 % der Teilnehmer wechselten von einem hohen Vertrauen (über 50 %) zu Unsicherheit. Der Wandel war für die Kontrollgruppen, die mit demselben Chatbot zu einem ähnlichen Thema sprachen, jedoch kaum spürbar. Eine Nachuntersuchung zwei Monate später zeigte, dass der Perspektivwechsel bei vielen Teilnehmern anhielt.
Obwohl die Ergebnisse der Studie vielversprechend sind, weisen die Forscher darauf hin, dass die Teilnehmer bezahlte Umfrageteilnehmer waren und möglicherweise nicht repräsentativ für Menschen sind, die tief in Verschwörungstheorien verstrickt sind.
Effektive Intervention
FitzGerald ist begeistert von dem Potenzial der KI, gegen Verschwörungen vorzugehen. „Wenn wir einen Weg finden können, um offline Gewalt zu verhindern, ist das immer eine gute Sache“, sagt sie. Sie schlägt vor, dass Folgeuntersuchungen verschiedene Metriken zur Bewertung der Wirksamkeit des Chatbots untersuchen könnten oder die Studie unter Verwendung von LLMs mit weniger fortgeschrittenen Sicherheitsmaßnahmen wiederholt werden könnte, um sicherzustellen, dass sie nicht konspiratives Denken verstärken.
Frühere Studien haben Bedenken hinsichtlich der Tendenz von KI-Chatbots geäußert, falsche Informationen zu „halluzinieren“. Die Studie achtete jedoch darauf, diese Möglichkeit zu vermeiden – Costellos Team bat einen professionellen Faktenprüfer, die Genauigkeit der vom Chatbot bereitgestellten Informationen zu bewerten, der bestätigte, dass keine der Aussagen falsch oder politisch voreingenommen war.
Costello sagt, dass das Team weitere Experimente plant, um verschiedene Strategien des Chatbots zu testen, zum Beispiel zu untersuchen, was passiert, wenn die Antworten des Chatbots unhöflich sind. Sie hoffen, durch die Identifizierung „der Experimente, bei denen die Überzeugung nicht mehr funktioniert“, mehr darüber zu lernen, was diese besondere Studie so erfolgreich gemacht hat.
-
Costello, T. H., Pennycook, G. & Rand, D. G. Science 385, eadq1814 (2024).