Lo studio mostra una minore accettazione delle decisioni sull’eutanasia prese dall’IA
Il ruolo dell’intelligenza artificiale nel processo decisionale medico si traduce in risposte diverse negli esseri umani rispetto ai medici umani. Un nuovo studio ha esaminato le situazioni in cui l’accettazione differisce e perché utilizza storie che descrivono casi medici. Le persone accettano meno le decisioni sull’eutanasia prese dai robot e dall’intelligenza artificiale rispetto a quelle prese dai medici umani, secondo un nuovo studio. Lo studio internazionale, condotto dall’Università di Turku in Finlandia, ha esaminato i giudizi morali delle persone sulle decisioni di cura della vita dell’intelligenza artificiale e dei robot in relazione alle persone in coma. Il gruppo di ricerca ha condotto…
Lo studio mostra una minore accettazione delle decisioni sull’eutanasia prese dall’IA
Il ruolo dell’intelligenza artificiale nel processo decisionale medico si traduce in risposte diverse negli esseri umani rispetto ai medici umani. Un nuovo studio ha esaminato le situazioni in cui l’accettazione differisce e perché utilizza storie che descrivono casi medici.
Le persone accettano meno le decisioni sull’eutanasia prese dai robot e dall’intelligenza artificiale rispetto a quelle prese dai medici umani, secondo un nuovo studio. Lo studio internazionale, condotto dall’Università di Turku in Finlandia, ha esaminato i giudizi morali delle persone sulle decisioni di cura della vita dell’intelligenza artificiale e dei robot in relazione alle persone in coma. Il gruppo di ricerca ha condotto lo studio in Finlandia, Repubblica Ceca e Regno Unito raccontando ai soggetti della ricerca storie che descrivevano casi medici.
Il ricercatore principale del progetto, il docente universitario Michael Laakasuo dell'Università di Turku, spiega che il fenomeno in cui gli esseri umani prendono alcune delle decisioni prese dall'intelligenza artificiale e dai robot secondo uno standard più elevato rispetto a decisioni simili prese dagli esseri umani è chiamato effetto di asimmetria del giudizio morale uomo-robot.
Tuttavia, è ancora un mistero scientifico il modo in cui decisioni e situazioni danno origine all’effetto di asimmetria del giudizio morale. Il nostro team ha esaminato vari fattori situazionali legati all’emergere di questo fenomeno e all’accettazione delle decisioni morali. “
Michael Laakasuo, Università di Turku
Le persone sono viste come decisori più competenti
Secondo i risultati della ricerca, il fenomeno si è verificato laddove le persone erano meno propense ad accettare le decisioni sull’eutanasia prese dall’intelligenza artificiale o da un robot, indipendentemente dal fatto che la macchina avesse un ruolo consultivo o il decisore effettivo. Se la decisione fosse stata quella di mantenere aggiornato il sistema di sussistenza, non vi sarebbe stata alcuna asimmetria di giudizio tra le decisioni degli esseri umani e dell’intelligenza artificiale. Tuttavia, in generale, i soggetti della ricerca erano favorevoli a decisioni che comportavano la disattivazione del supporto vitale e la non continuazione.
La differenza di accettazione tra i decisori umani e quelli dell’intelligenza artificiale è scomparsa nelle situazioni in cui il paziente nella storia raccontata ai soggetti della ricerca era sveglio e aveva auto-richiesto l’eutanasia mediante iniezione letale.
Il gruppo di ricerca ha anche scoperto che l’asimmetria del giudizio morale è causata, almeno in parte, dal fatto che gli esseri umani sono decisori meno competenti degli esseri umani quando si tratta di intelligenza artificiale.
“La capacità dell’intelligenza artificiale di spiegare e giustificare le proprie decisioni è stata considerata limitata, il che potrebbe spiegare perché le persone hanno meno probabilità di abbracciare l’intelligenza artificiale in ruoli clinici”.
L’esperienza con l’intelligenza artificiale gioca un ruolo importante
Secondo Laakasuo, i risultati suggeriscono che l’autonomia del paziente è cruciale quando si applica l’intelligenza artificiale nel settore sanitario.
"La nostra ricerca mette in luce la natura complessa dei giudizi morali quando si considera il processo decisionale dell'IA nell'assistenza medica. Le persone percepiscono il coinvolgimento dell'IA nel processo decisionale in modo molto diverso rispetto a quando il responsabile è un essere umano", afferma.
"Le implicazioni di questa ricerca sono significative poiché il ruolo dell'intelligenza artificiale nella nostra società e nell'assistenza medica si espande ogni giorno. È importante comprendere le esperienze e le reazioni della gente comune in modo che i sistemi futuri possano essere percepiti come moralmente accettabili."
Fonti:
Laakasuo, M.,et al.(2025). Esplorazione psicologica morale dell’effetto di asimmetria nelle decisioni di eutanasia assistita dall’intelligenza artificiale. Cognizione. doi.org/10.1016/j.cognition.2025.106177.