Chatgpt utkonkurrerer psykoterapeuter i å vurdere terapirespons, viser studie

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Når det gjelder å sammenligne svar fra psykoterapeuter med de skrevet av ChatGPT PLOS Mental Health av H. Dorian Hatch fra Ohio State University og medgründer av Hatch Data and Mental Health og kollegaer Hvorvidt maskiner kan være terapeuter, er et spørsmål som har fått økt oppmerksomhet gitt fordelene ved å jobbe med generativ kunstig intelligens (AI). Selv om tidligere forskning har funnet ut at mennesker kan ha problemer med å se forskjellen mellom svar fra maskiner og mennesker, tyder nyere bevis på at AI kan skrive empatisk og innholdet som genereres kan brukes av både psykisk helsepersonell...

Chatgpt utkonkurrerer psykoterapeuter i å vurdere terapirespons, viser studie

Når det gjelder å sammenligne svar fra psykoterapeuter med svar skrevet av ChatGPTPLOS Mental Helseav H. Dorian Hatch fra Ohio State University og medgründer av Hatch Data and Mental Health og kolleger

Hvorvidt maskiner kan være terapeuter er et spørsmål som har fått økt oppmerksomhet gitt fordelene ved å jobbe med generativ kunstig intelligens (AI). Selv om tidligere forskning har funnet ut at mennesker kan ha problemer med å se forskjellen mellom svar fra maskiner og mennesker, tyder nyere bevis på at AI kan skrive empatisk og innholdet som genereres vil bli høyt verdsatt av både psykisk helsepersonell og frivillige tjenester i den grad de ofte er skrevet på innhold.

I deres nye studie av over 800 deltakere, viste Hatch og kolleger at selv om det ble funnet forskjeller i språkmønstre, var individer sjelden i stand til å identifisere om svar ble skrevet av ChatGPT eller av terapeuter når de ble presentert med 18 terapivignetter fra et par. Dette funnet gjenspeiler Alan Turings spådom om at mennesker ikke ville være i stand til å se forskjellen mellom svar skrevet av en maskin og de som er skrevet av et menneske. I tillegg ble svar skrevet av ChatGPT generelt vurdert høyere i Principles of Core Psychotherapy.

Ytterligere analyse viste at svarene generert av ChatGPT generelt var lengre enn de som ble skrevet av terapeutene. Etter å ha kontrollert lengden, fortsatte ChatGpt å svare med flere substantiv og adjektiver enn terapeuter. Med tanke på at substantiv kan brukes til å beskrive mennesker, steder og ting og adjektiver, kan dette brukes til å hjelpe ChatGPT med å kontekstualisere mer intensivt enn terapeutene. Mer omfattende kontekstualisering kan ha ført til at respondentene vurderer ChatGPT-responser høyere på de vanlige terapifaktorene (komponenter som er felles for alle terapimodaliteter for å oppnå ønskede resultater).

Ifølge forfatterne kan disse resultatene være en tidlig indikasjon på at ChatGPT har potensial til å forbedre psykoterapeutiske prosesser. Spesielt kan dette arbeidet føre til utvikling av ulike metoder for å teste og lage psykoterapeutiske intervensjoner. Gitt de økende bevisene som tyder på at generativ AI kan være nyttig i terapeutiske omgivelser og sannsynligheten for at den kan integreres i terapeutiske omgivelser raskere, ber forfatterne om mental helseeksperter til å utvide sin tekniske kompetanse for å sikre at AI-modeller er nøye trent og overvåket av ansvarlige fagfolk for å forbedre kvaliteten.

Forfatterne legger til: "Siden Eliza ble oppfunnet for nesten seksti år siden, har forskere diskutert om AI kan spille rollen som en terapeut. Selv om det fortsatt er mange viktige pågående spørsmål, viser resultatene våre at svaret er ja. Vi håper vårt arbeid vil engasjere både offentlige og mentale helseutøvere til å stille viktige spørsmål om etikk, gjennomførbarhet og bruk av integrering av AI og mental helsebehandling før AI-toget forlater stasjonen. "


Kilder:

Journal reference:

Gabe Hatch, S., et al. (2025) Når ELIZA møter terapeuter: En Turing-test for hjertet og sinnet. PLOS Mental Helse. doi.org/10.1371/journal.pmen.0000145.