Modelos de IA de patologia revelam vieses demográficos no diagnóstico de câncer

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A patologia tem sido a pedra angular do diagnóstico e tratamento do câncer. Um patologista examina cuidadosamente uma seção ultrafina de tecido humano sob um microscópio em busca de pistas que indiquem a presença, tipo e estágio do câncer. Para um especialista humano, olhar para uma amostra de tecido rosa em espiral pontilhada com células roxas é...

Modelos de IA de patologia revelam vieses demográficos no diagnóstico de câncer

A patologia tem sido a pedra angular do diagnóstico e tratamento do câncer. Um patologista examina cuidadosamente uma seção ultrafina de tecido humano sob um microscópio em busca de pistas que indiquem a presença, tipo e estágio do câncer.

Para um especialista humano, olhar para uma amostra de tecido cor-de-rosa pontilhada de células roxas é como avaliar um exame sem nome: o slide revela informações essenciais sobre a doença sem fornecer mais detalhes sobre o paciente.

No entanto, o mesmo não se aplica necessariamente aos modelos de inteligência artificial em patologia que surgiram nos últimos anos. Um novo estudo liderado por uma equipe da Harvard Medical School mostra que esses modelos podem de alguma forma inferir informações demográficas a partir de lâminas patológicas, levando a vieses no diagnóstico de câncer em diferentes populações.

Ao analisar vários modelos importantes de IA de patologia para diagnóstico de câncer, os pesquisadores descobriram um desempenho desigual na detecção e diferenciação de cânceres em diferentes populações com base no sexo, raça e idade auto-relatados pelos pacientes. Eles identificaram várias explicações possíveis para esse viés demográfico.

A equipe desenvolveu então uma estrutura chamada FAIR-Path, que ajudou a reduzir o viés nos modelos.

Ler dados demográficos de um slide de patologia é considerado uma “missão impossível” para um patologista humano, então o preconceito na IA patológica foi uma surpresa para nós.”

Kun-Hsing Yu, autor sênior, professor associado de informática biomédica, Instituto Blavatnik no HMS e professor assistente de patologia do HMS no Brigham and Women's Hospital

Detectar e combater o preconceito da IA ​​na medicina é fundamental porque pode afetar a precisão do diagnóstico, bem como os resultados dos pacientes, disse Yu. O sucesso do FAIR-Path mostra que os investigadores podem melhorar a imparcialidade dos modelos de IA para a patologia do cancro e, potencialmente, de outros modelos de IA na medicina, com um esforço mínimo.

O trabalho, apoiado em parte por financiamento federal, é descrito em 16 de dezembro emMedicina de relatórios celulares.

Verifique se há preconceito

Yu e sua equipe examinaram o viés em quatro modelos padrão de patologia de IA desenvolvidos para avaliação do câncer. Esses modelos de aprendizagem profunda foram treinados em conjuntos de slides de patologia anotados, a partir dos quais “aprenderam” padrões biológicos que lhes permitem analisar novos slides e fazer diagnósticos.

Os pesquisadores alimentaram os modelos de IA com um grande arquivo interinstitucional de slides patológicos de 20 tipos de câncer.

Eles descobriram que todos os quatro modelos tinham desempenho distorcido e forneciam diagnósticos menos precisos para pacientes em determinados grupos com base na raça, sexo e idade auto-relatados. Por exemplo, os modelos tiveram dificuldade em distinguir os subtipos de cancro do pulmão em pacientes afro-americanos e do sexo masculino e os subtipos de cancro da mama em pacientes mais jovens. Os modelos também tiveram dificuldade em detectar cancros da mama, rim, tiróide e estômago em certas populações. Estas diferenças de desempenho ocorreram em cerca de 29 por cento das tarefas de diagnóstico realizadas pelos modelos.

Essa imprecisão diagnóstica, disse Yu, ocorre porque esses modelos extraem informações demográficas dos slides – e dependem de padrões demográficos específicos para diagnosticar.

Os resultados foram inesperados “porque esperaríamos uma avaliação patológica objetiva”, acrescentou Yu. “Ao avaliar imagens, não precisamos necessariamente conhecer os dados demográficos do paciente para fazer um diagnóstico.”

A equipe se perguntou: por que a IA patológica não mostrou a mesma objetividade?

Procurando explicações

Os pesquisadores apresentaram três explicações.

Como é mais fácil para os pacientes de determinadas populações obterem amostras, os modelos de IA são treinados em tamanhos de amostra desiguais. Isto torna mais difícil para os modelos fazerem um diagnóstico preciso em amostras que não estão bem representadas no conjunto de treinamento, como aquelas de grupos minoritários com base em raça, idade ou sexo.

Mas “o problema era muito mais profundo”, disse Yu. Os investigadores notaram que os modelos por vezes tinham um desempenho pior num grupo populacional, mesmo quando os tamanhos das amostras eram comparáveis.

Uma análise adicional concluiu que isto pode dever-se a diferenças na prevalência da doença: alguns cancros são mais comuns em determinados grupos, tornando os modelos melhores no diagnóstico nesses grupos. Como resultado, os modelos podem ter dificuldade em diagnosticar cancros em populações onde não são tão comuns.

Os modelos de IA também capturam diferenças moleculares sutis em amostras de diferentes grupos demográficos. Por exemplo, os modelos podem detectar mutações em genes causadores de cancro e utilizá-los como proxy para o tipo de cancro – sendo, portanto, menos eficazes no diagnóstico em populações onde estas mutações são menos comuns.

“Descobrimos que o poder da IA ​​permite distinguir muitos sinais biológicos pouco claros que não podem ser detectados pela interpretação humana normal”, disse Yu.

Isso permite que os modelos aprendam potencialmente sinais que estão mais relacionados à demografia do que às doenças. Isto, por sua vez, poderia impactar suas habilidades de diagnóstico entre grupos.

Tomadas em conjunto, diz Yu, essas explicações sugerem que o viés na IA patológica vem não apenas da qualidade variável dos dados de treinamento, mas também da maneira como os pesquisadores treinam os modelos.

Encontre uma solução

Depois de avaliar a extensão e as causas do preconceito, Yu e sua equipe decidiram resolver o problema.

Os pesquisadores desenvolveram o FAIR-Path, uma estrutura simples baseada em um conceito existente de aprendizado de máquina chamado aprendizado contrastivo. A aprendizagem contrastiva acrescenta um elemento à formação em IA que ensina o modelo a enfatizar as diferenças entre categorias importantes – neste caso o cancro – e a minimizar as diferenças entre categorias menos importantes – neste caso grupos demográficos.

Quando os pesquisadores aplicaram a estrutura FAIR-Path aos modelos testados, reduziram as diferenças de diagnóstico em cerca de 88%.

“Mostramos que através deste pequeno ajuste, os modelos podem aprender características robustas que os tornam mais generalizáveis ​​e justos em diferentes populações”, disse Yu.

O resultado é encorajador, acrescentou, porque sugere que os preconceitos podem ser reduzidos mesmo sem treinar os modelos em dados completamente justos e representativos.

Em seguida, Yu e sua equipe estão colaborando com instituições de todo o mundo para examinar a extensão do preconceito na IA patológica em locais com diferentes dados demográficos e diferentes práticas clínicas e patológicas. Eles também estão explorando maneiras de estender o FAIR-Path a ambientes com tamanhos de amostra limitados. Além disso, eles querem examinar como o preconceito na IA contribui para discrepâncias demográficas nos cuidados de saúde e nos resultados dos pacientes.

Em última análise, disse Yu, o objetivo é criar modelos de IA de patologia justos e imparciais que possam melhorar o tratamento do câncer, ajudando os patologistas humanos a fazer um diagnóstico com rapidez e precisão.

“Acho que há esperança de que, se formos mais conscientes e cuidadosos no desenvolvimento de sistemas de IA, possamos desenvolver modelos que funcionem bem em qualquer população”, disse ele.


Fontes:

Journal reference:

Lin, S.-Y.,e outros. (2025). A aprendizagem contrastiva aumenta a justiça em sistemas de inteligência artificial patológicos. Medicina de relatórios celulares. doi:10.1016/j.xcrm.2025.102527.  https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7