El estudio muestra una menor aceptación de las decisiones de eutanasia tomadas por la IA
El papel de la IA en la toma de decisiones médicas da como resultado respuestas diferentes en los humanos en comparación con los médicos humanos. Un nuevo estudio examinó las situaciones en las que la aceptación difiere y por qué utilizando historias que describen casos médicos. La gente acepta menos las decisiones de eutanasia tomadas por robots e inteligencia artificial que las tomadas por médicos humanos, según un nuevo estudio. El estudio internacional, dirigido por la Universidad de Turku en Finlandia, examinó los juicios morales de las personas sobre las decisiones de cuidado de la vida de la IA y los robots en relación con las personas en coma. El equipo de investigación realizó…
El estudio muestra una menor aceptación de las decisiones de eutanasia tomadas por la IA
El papel de la IA en la toma de decisiones médicas da como resultado respuestas diferentes en los humanos en comparación con los médicos humanos. Un nuevo estudio examinó las situaciones en las que la aceptación difiere y por qué utilizando historias que describen casos médicos.
La gente acepta menos las decisiones de eutanasia tomadas por robots e inteligencia artificial que las tomadas por médicos humanos, según un nuevo estudio. El estudio internacional, dirigido por la Universidad de Turku en Finlandia, examinó los juicios morales de las personas sobre las decisiones de cuidado de la vida de la IA y los robots en relación con las personas en coma. El equipo de investigación llevó a cabo el estudio en Finlandia, la República Checa y el Reino Unido contando a los sujetos de la investigación historias que describían casos médicos.
El investigador principal del proyecto, el profesor universitario Michael Laakasuo de la Universidad de Turku, explica que el fenómeno en el que los humanos toman algunas de las decisiones tomadas por la IA y los robots con un estándar más alto que decisiones similares tomadas por los humanos se llama efecto de asimetría del juicio moral entre humanos y robots.
Sin embargo, sigue siendo un misterio científico en qué decisiones y situaciones dan lugar al efecto de asimetría del juicio moral. Nuestro equipo examinó varios factores situacionales relacionados con el surgimiento de este fenómeno y la aceptación de decisiones morales. “
Michael Laakasuo, Universidad de Turku
Se considera que las personas toman decisiones más competentes
Según los resultados de la investigación, el fenómeno se produjo cuando las personas eran menos propensas a aceptar las decisiones de eutanasia tomadas por la IA o un robot, independientemente de si la máquina desempeñaba una función de asesoramiento o era la que tomaba las decisiones. Si la decisión fue mantener actualizado el sistema de medios de vida, no había asimetría de juicio entre las decisiones de los humanos y la IA. Sin embargo, en general, los sujetos de la investigación favorecieron las decisiones que implicaban desconectar el soporte vital y no continuar.
La diferencia en la aceptación entre los tomadores de decisiones humanos y de IA desapareció en situaciones en las que el paciente en la historia contada a los sujetos de la investigación estaba despierto y él mismo solicitó la eutanasia mediante inyección letal.
El equipo de investigación también descubrió que la asimetría del juicio moral se debe, al menos en parte, a que los humanos son menos competentes para tomar decisiones que los humanos cuando se trata de IA.
"La capacidad de la IA para explicar y justificar sus decisiones se ha considerado limitada, lo que puede explicar por qué es menos probable que las personas adopten la IA en funciones clínicas".
La experiencia con la IA juega un papel importante
Según Laakasuo, los resultados sugieren que la autonomía del paciente es crucial a la hora de aplicar la IA en la asistencia sanitaria.
"Nuestra investigación ilumina la naturaleza compleja de los juicios morales cuando se considera la toma de decisiones de la IA en la atención médica. Las personas perciben la participación de la IA en la toma de decisiones de manera muy diferente en comparación con cuando un ser humano está a cargo", dice.
"Las implicaciones de esta investigación son significativas a medida que el papel de la IA en nuestra sociedad y la atención médica se expande cada día. Es importante comprender las experiencias y reacciones de la gente común para que los sistemas futuros puedan percibirse como moralmente aceptables".
Fuentes:
Laakasuo, M.,et al.(2025). Exploración psicológica moral del efecto de asimetría en las decisiones de eutanasia asistida por IA. Cognición. doi.org/10.1016/j.cognition.2025.106177.