Uit onderzoek blijkt dat Chatgpt beter presteert dan psychotherapeuten bij het beoordelen van de therapierespons
Als het gaat om het vergelijken van antwoorden van psychotherapeuten met die van ChatGPT PLOS Mental Health door H. Dorian Hatch van Ohio State University en mede-oprichter van Hatch Data and Mental Health en collega's. Of machines therapeuten kunnen zijn, is een vraag die steeds meer aandacht heeft gekregen gezien de voordelen van het werken met generatieve kunstmatige intelligentie (AI). Hoewel uit eerder onderzoek is gebleken dat mensen moeite kunnen hebben om het verschil te zien tussen reacties van machines en mensen, suggereert recent bewijs dat AI empathisch kan schrijven en dat de gegenereerde inhoud kan worden gebruikt door zowel professionals in de geestelijke gezondheidszorg...
Uit onderzoek blijkt dat Chatgpt beter presteert dan psychotherapeuten bij het beoordelen van de therapierespons
Als het gaat om het vergelijken van antwoorden van psychotherapeuten met antwoorden geschreven door ChatGPTPLOS geestelijke gezondheiddoor H. Dorian Hatch van de Ohio State University en mede-oprichter van Hatch Data and Mental Health en collega's
Of machines therapeuten zouden kunnen zijn, is een vraag die steeds meer aandacht heeft gekregen gezien de voordelen van het werken met generatieve kunstmatige intelligentie (AI). Hoewel uit eerder onderzoek is gebleken dat mensen moeite kunnen hebben het verschil te zien tussen reacties van machines en mensen, suggereert recent bewijs dat AI empathisch kan schrijven en dat de gegenereerde inhoud zeer gewaardeerd zal worden door zowel professionals in de geestelijke gezondheidszorg als door vrijwilligersorganisaties, in de mate dat ze vaak op inhoud zijn geschreven.
In hun nieuwe onderzoek onder meer dan 800 deelnemers toonden Hatch en collega's aan dat hoewel er verschillen in taalpatronen werden gevonden, individuen zelden in staat waren om te identificeren of de antwoorden door ChatGPT of door therapeuten waren geschreven wanneer ze 18 therapievignetten van een stel kregen. Deze bevinding weerspiegelt de voorspelling van Alan Turing dat mensen niet in staat zouden zijn het verschil te zien tussen antwoorden geschreven door een machine en antwoorden geschreven door een mens. Bovendien werden antwoorden geschreven door ChatGPT over het algemeen hoger beoordeeld in Principles of Core Psychotherapy.
Uit verdere analyse bleek dat de door ChatGPT gegenereerde reacties over het algemeen langer waren dan de reacties die door de therapeuten werden geschreven. Na controle voor de lengte bleef ChatGpt reageren met meer zelfstandige naamwoorden en bijvoeglijke naamwoorden dan therapeuten. Gezien het feit dat zelfstandige naamwoorden kunnen worden gebruikt om mensen, plaatsen en dingen en bijvoeglijke naamwoorden te beschrijven, kan dit worden gebruikt om ChatGPT te helpen intensiever te contextualiseren dan de therapeuten. Uitgebreidere contextualisering kan ertoe hebben geleid dat respondenten de ChatGPT-reacties hoger beoordeelden op de gemeenschappelijke therapiefactoren (componenten die alle therapiemodaliteiten gemeen hebben om de gewenste resultaten te bereiken).
Volgens de auteurs kunnen deze resultaten een vroege indicatie zijn dat ChatGPT het potentieel heeft om psychotherapeutische processen te verbeteren. In het bijzonder kan dit werk leiden tot de ontwikkeling van verschillende methoden voor het testen en creëren van psychotherapeutische interventies. Gezien het toenemende bewijsmateriaal dat suggereert dat generatieve AI nuttig kan zijn in therapeutische omgevingen en de waarschijnlijkheid dat het eerder in therapeutische omgevingen zou kunnen worden geïntegreerd, roepen de auteurs deskundigen op het gebied van de geestelijke gezondheidszorg op om hun technische geletterdheid uit te breiden om ervoor te zorgen dat AI-modellen zorgvuldig worden getraind en gecontroleerd door verantwoordelijke professionals om de kwaliteit te verbeteren.
De auteurs voegen toe: “Sinds Eliza bijna zestig jaar geleden werd uitgevonden, hebben onderzoekers gedebatteerd over de vraag of AI de rol van een therapeut zou kunnen spelen. Hoewel er nog steeds veel belangrijke vragen zijn, laten onze resultaten zien dat het antwoord ja is. We hopen dat ons werk zowel publieke als geestelijke gezondheidszorgbeoefenaars ertoe zal aanzetten belangrijke vragen te stellen over de ethiek, haalbaarheid en het gebruik van de integratie van AI en geestelijke gezondheidszorg voordat de AI-trein het station verlaat. “
Bronnen:
Gabe Hatch, S., et al. (2025) Wanneer ELIZA therapeuten ontmoet: een Turing-test voor hart en geest. PLOS geestelijke gezondheid. doi.org/10.1371/journal.pmen.0000145.