IA Explicável na Saúde: explicar, prever ou descrever?

Diagnóstico Prognóstico Res. 2025 December 5;9(1):29. doi: 10.1186/s41512-025-00213-8.

RESUMO

Métodos de Inteligência Artificial Explicável (AI) são projetados para fornecer informações sobre como modelos baseados em AI fazem previsões. Na área da saúde, há uma expectativa generalizada de que esses métodos fornecerão informações relevantes e precisas sobre o funcionamento interno dos modelos a diferentes partes interessadas (desde pacientes e profissionais de saúde até desenvolvedores de diretrizes médicas e de AI). Este é um desafio, uma vez que o que se qualifica como informação relevante pode diferir muito dependendo da parte interessada. Para muitas partes interessadas, explicações relevantes são de natureza causal, no entanto, métodos de AI explicável frequentemente não conseguem fornecer essas informações. Utilizando o quadro Descrever-Prever-Explicar, argumentamos que os métodos de AI explicável são boas ferramentas descritivas, pois podem ajudar a descrever como um modelo funciona, mas são limitados em sua capacidade de explicar por que um modelo funciona em termos de verdadeiros mecanismos biológicos subjacentes e relações de causa e efeito. Isso limita a adequação dos métodos de AI explicável para fornecer conselhos acionáveis aos pacientes ou para julgar a validade de face de modelos baseados em AI.

Conteúdo Patrocinado

PMID:41345739 | PMC:PMC12679721 | DOI:10.1186/s41512-025-00213-8

Para ler a postagem completa, visite o original: Leia a Postagem Completa

Respostas

Respostas