Inteligência artificial explicável na área da saúde: explicar, prever ou descrever?

Diagn Progn Res. 2025 Dec 5;9(1):29. doi: 10.1186/s41512-025-00213-8.

RESUMO

Métodos de Inteligência Artificial Explicável foram projetados para fornecer informações sobre como os modelos baseados em IA fazem previsões. Na área da saúde, há uma expectativa generalizada de que esses métodos forneçam informações relevantes e precisas sobre o funcionamento interno dos modelos a diferentes partes interessadas (que vão desde pacientes e profissionais de saúde até desenvolvedores de diretrizes médicas e IA). Isso é um desafio, uma vez que o que qualifica como informação relevante pode diferir muito dependendo da parte interessada. Para muitas partes interessadas, explicações relevantes são de natureza causal, no entanto, os métodos de IA explicáveis frequentemente não conseguem fornecer essa informação. Usando o framework Descrever-Predizer-Explicar, argumentamos que os métodos de IA Explicável são bons instrumentos descritivos, pois podem ajudar a descrever o funcionamento de um modelo, mas são limitados em sua capacidade de explicar por que um modelo funciona em termos de verdadeiros mecanismos biológicos subjacentes e relações de causa e efeito. Isso limita a adequação dos métodos de IA explicáveis para fornecer conselhos acionáveis aos pacientes ou para julgar a validade de face dos modelos baseados em IA.

Conteúdo Patrocinado

PMID: 41345739 | DOI: 10.1186/s41512-025-00213-8

Para ler a postagem completa, visite o original: Leia a Postagem Completa

Respostas

Respostas