Studien visar lägre acceptans för dödshjälpsbeslut som AI fattat

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

AI:s roll i medicinskt beslutsfattande resulterar i olika svar hos människor jämfört med mänskliga läkare. En ny studie undersökte de situationer där acceptansen skiljer sig åt och varför man använder berättelser som beskrev medicinska fall. Människor accepterar mindre beslut om dödshjälp som tas av robotar och AI än de som tas av mänskliga läkare, visar en ny studie. Den internationella studien, ledd av Åbo universitet i Finland, undersökte människors moraliska bedömningar av AI:s och robotars livsvårdsbeslut när de relaterar till människor i koma. Forskargruppen genomförde...

Studien visar lägre acceptans för dödshjälpsbeslut som AI fattat

AI:s roll i medicinskt beslutsfattande resulterar i olika svar hos människor jämfört med mänskliga läkare. En ny studie undersökte de situationer där acceptansen skiljer sig åt och varför man använder berättelser som beskrev medicinska fall.

Människor accepterar mindre beslut om dödshjälp som tas av robotar och AI än de som tas av mänskliga läkare, visar en ny studie. Den internationella studien, ledd av Åbo universitet i Finland, undersökte människors moraliska bedömningar av AI:s och robotars livsvårdsbeslut när de relaterar till människor i koma. Forskargruppen genomförde studien i Finland, Tjeckien och Storbritannien genom att berätta för forskarpersonerna historier som beskrev medicinska fall.

Projektets ledande utredare, universitetslektor Michael Laakasuo vid Åbo universitet, förklarar att fenomenet där människor fattar en del av de beslut som AI och robotar tar till en högre standard än liknande beslut som fattas av människor kallas den moraliska bedömningsasymmetrieffekten människa-robot.

Det är dock fortfarande ett vetenskapligt mysterium där beslut och situationer ger upphov till den moraliska bedömningsasymmetrieffekten. Vårt team undersökte olika situationsfaktorer relaterade till uppkomsten av detta fenomen och acceptansen av moraliska beslut. "

Michael Laakasuo, Åbo universitet

Människor ses som mer kompetenta beslutsfattare

Enligt forskningsresultaten inträffade fenomenet där människor var mindre benägna att acceptera dödshjälpbeslut som fattades av AI eller en robot, oavsett om maskinen hade en rådgivande roll eller den faktiska beslutsfattaren. Om beslutet var att hålla försörjningssystemet uppdaterat fanns det ingen bedömningsasymmetri mellan människors och AI:s beslut. Men i allmänhet föredrog forskningspersoner beslut som innebar att stänga av livstöd och inte fortsätta.

Skillnaden i acceptans mellan mänskliga och AI-beslutsfattare försvann i situationer där patienten i berättelsen som berättades för forskningspersoner var vaken och självbegärd om dödshjälp genom dödlig injektion.

Forskargruppen fann också att den moraliska bedömningsasymmetrin, åtminstone delvis, orsakas av att människor är mindre kompetenta beslutsfattare än människor när det kommer till AI.

"AI:s förmåga att förklara och motivera sina beslut har setts som begränsad, vilket kan förklara varför människor är mindre benägna att ta till sig AI i kliniska roller."

Erfarenhet av AI spelar en viktig roll

Enligt Laakasuo tyder resultaten på att patientens autonomi är avgörande vid tillämpning av AI i vården.

"Vår forskning belyser den komplexa karaktären hos moraliska bedömningar när man överväger AI-beslutsfattande inom sjukvården. Människor uppfattar AI:s inblandning i beslutsfattande mycket annorlunda jämfört med när en människa är ansvarig", säger han.

"Konsekvenserna av den här forskningen är betydande eftersom AI:s roll i vårt samhälle och vården ökar varje dag. Det är viktigt att förstå vanliga människors erfarenheter och reaktioner så att framtida system kan uppfattas som moraliskt acceptabla."


Källor:

Journal reference:

Laakasuo, M.,et al.(2025). Moralpsykologisk utforskning av asymmetrieffekten i AI-assisterade dödshjälpbeslut. Kognition. doi.org/10.1016/j.cognition.2025.106177.