Los modelos de patología IA revelan sesgos demográficos en el diagnóstico del cáncer
La patología ha sido durante mucho tiempo la piedra angular del diagnóstico y tratamiento del cáncer. Un patólogo examina cuidadosamente una sección ultrafina de tejido humano bajo un microscopio en busca de pistas que indiquen la presencia, el tipo y el estadio del cáncer. Para un experto en humanos, observar una muestra de tejido rosa arremolinada salpicada de células de color púrpura es...
Los modelos de patología IA revelan sesgos demográficos en el diagnóstico del cáncer
La patología ha sido durante mucho tiempo la piedra angular del diagnóstico y tratamiento del cáncer. Un patólogo examina cuidadosamente una sección ultrafina de tejido humano bajo un microscopio en busca de pistas que indiquen la presencia, el tipo y el estadio del cáncer.
Para un experto humano, mirar una muestra de tejido rosa arremolinada salpicada de células violetas es como calificar un examen sin nombre: la diapositiva revela información esencial sobre la enfermedad sin proporcionar más detalles sobre el paciente.
Sin embargo, no ocurre necesariamente lo mismo con los modelos de inteligencia artificial en patología que han surgido en los últimos años. Un nuevo estudio dirigido por un equipo de la Facultad de Medicina de Harvard muestra que estos modelos pueden de alguna manera inferir información demográfica a partir de diapositivas de patología, lo que lleva a un sesgo en el diagnóstico de cáncer en diferentes poblaciones.
Al analizar varios modelos de IA de patologías importantes para el diagnóstico de cáncer, los investigadores encontraron un rendimiento desigual en la detección y diferenciación de cánceres en diferentes poblaciones según el género, la raza y la edad autoinformados por los pacientes. Identificaron varias explicaciones posibles para este sesgo demográfico.
Luego, el equipo desarrolló un marco llamado FAIR-Path, que ayudó a reducir el sesgo en los modelos.
Leer datos demográficos de una diapositiva de patología se considera una “misión imposible” para un patólogo humano, por lo que el sesgo en la IA de patología fue una sorpresa para nosotros”.
Kun-Hsing Yu, autor principal, profesor asociado de informática biomédica en el Instituto Blavatnik del HMS y profesor asistente de patología del HMS en el Brigham and Women's Hospital.
Detectar y combatir el sesgo de la IA en la medicina es fundamental porque puede afectar la precisión del diagnóstico y los resultados de los pacientes, dijo Yu. El éxito de FAIR-Path muestra que los investigadores pueden mejorar la equidad de los modelos de IA para la patología del cáncer y, potencialmente, de otros modelos de IA en medicina, con un mínimo esfuerzo.
El trabajo, financiado en parte con fondos federales, se describe el 16 de diciembre enMedicina de informes celulares.
comprobar si hay sesgo
Yu y su equipo examinaron el sesgo en cuatro modelos estándar de patología de IA desarrollados para la evaluación del cáncer. Estos modelos de aprendizaje profundo se entrenaron en conjuntos de diapositivas de patología anotadas, de las cuales "aprendieron" patrones biológicos que les permiten analizar nuevas diapositivas y hacer diagnósticos.
Los investigadores alimentaron los modelos de IA con un gran archivo interinstitucional de diapositivas de patología de 20 tipos de cáncer.
Descubrieron que los cuatro modelos tenían un rendimiento sesgado y proporcionaban diagnósticos menos precisos para los pacientes de ciertos grupos según la raza, el sexo y la edad autoinformados. Por ejemplo, los modelos tuvieron dificultades para distinguir los subtipos de cáncer de pulmón en pacientes afroamericanos y masculinos y los subtipos de cáncer de mama en pacientes más jóvenes. Los modelos también tuvieron dificultades para detectar cánceres de mama, riñón, tiroides y estómago en determinadas poblaciones. Estas diferencias de rendimiento se produjeron en alrededor del 29 por ciento de las tareas de diagnóstico realizadas por los modelos.
Esta inexactitud diagnóstica, dijo Yu, se debe a que estos modelos extraen información demográfica de las diapositivas y se basan en patrones demográficos específicos para diagnosticar.
Los resultados fueron inesperados "porque esperaríamos una evaluación patológica objetiva", añadió Yu. "Al evaluar imágenes, no necesariamente necesitamos conocer los datos demográficos del paciente para hacer un diagnóstico".
El equipo se preguntó: ¿Por qué la IA patológica no mostró la misma objetividad?
buscando explicaciones
Los investigadores propusieron tres explicaciones.
Debido a que a los pacientes de determinadas poblaciones les resulta más fácil obtener muestras, los modelos de IA se entrenan con tamaños de muestra desiguales. Esto hace que sea más difícil para los modelos hacer un diagnóstico preciso en muestras que no están bien representadas en el conjunto de entrenamiento, como aquellas de grupos minoritarios por raza, edad o género.
Pero "el problema era mucho más profundo", afirmó Yu. Los investigadores notaron que los modelos a veces funcionaban peor en un grupo de población, incluso cuando los tamaños de muestra eran comparables.
Un análisis adicional encontró que esto puede deberse a diferencias en la prevalencia de la enfermedad: algunos cánceres son más comunes en ciertos grupos, lo que hace que los modelos sean mejores para hacer un diagnóstico en esos grupos. Como resultado, los modelos pueden tener dificultades para diagnosticar cánceres en poblaciones donde no son tan comunes.
Los modelos de IA también capturan diferencias moleculares sutiles en muestras de diferentes grupos demográficos. Por ejemplo, los modelos pueden detectar mutaciones en genes impulsores del cáncer y utilizarlos como indicador del tipo de cáncer y, por lo tanto, son menos eficaces para realizar un diagnóstico en poblaciones donde estas mutaciones son menos comunes.
"Descubrimos que el poder de la IA le permite distinguir muchas señales biológicas poco claras que no pueden detectarse mediante la interpretación humana normal", dijo Yu.
Esto permite que los modelos aprendan potencialmente señales que están más relacionadas con la demografía que con la enfermedad. Esto, a su vez, podría afectar sus capacidades de diagnóstico en todos los grupos.
En conjunto, dice Yu, estas explicaciones sugieren que el sesgo en la IA patológica proviene no sólo de la calidad variable de los datos de entrenamiento, sino también de la forma en que los investigadores entrenan los modelos.
encontrar una solución
Después de evaluar el alcance y las causas del sesgo, Yu y su equipo se propusieron solucionar el problema.
Los investigadores desarrollaron FAIR-Path, un marco simple basado en un concepto de aprendizaje automático existente llamado aprendizaje contrastivo. El aprendizaje contrastivo agrega un elemento al entrenamiento de IA que enseña al modelo a enfatizar las diferencias entre categorías importantes (en este caso, cánceres) y minimizar las diferencias entre categorías menos importantes (en este caso, grupos demográficos).
Cuando los investigadores aplicaron el marco FAIR-Path a los modelos que probaron, redujeron las diferencias de diagnóstico en aproximadamente un 88 por ciento.
"Demostramos que a través de este pequeño ajuste, los modelos pueden aprender características sólidas que los hacen más generalizables y justos entre diferentes poblaciones", dijo Yu.
El resultado es alentador, añadió, porque sugiere que los sesgos pueden reducirse incluso sin entrenar los modelos con datos representativos y completamente justos.
A continuación, Yu y su equipo están colaborando con instituciones de todo el mundo para examinar el alcance del sesgo en la IA de patología en lugares con diferentes datos demográficos y diferentes prácticas clínicas y patológicas. También están explorando formas de extender FAIR-Path a entornos con tamaños de muestra limitados. Además, quieren examinar cómo el sesgo en la IA contribuye a las discrepancias demográficas en la atención sanitaria y los resultados de los pacientes.
En última instancia, dijo Yu, el objetivo es crear modelos de IA de patología justos e imparciales que puedan mejorar el tratamiento del cáncer ayudando a los patólogos humanos a realizar un diagnóstico de forma rápida y precisa.
"Creo que hay esperanza de que si somos más conscientes y cuidadosos en el desarrollo de sistemas de IA, podremos desarrollar modelos que funcionen bien en cualquier población", dijo.
Fuentes:
Lin, S.-Y.,et al. (2025). El aprendizaje contrastivo mejora la equidad en los sistemas de inteligencia artificial patológicos. Medicina de informes celulares. doi:10.1016/j.xcrm.2025.102527. https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7