Métodos Computacionais em Programas Biomédicos. 2025 Out 8;273:109090. doi: 10.1016/j.cmpb.2025.109090. Publicado online antes da impressão.
RESUMO
A medida que a IA se torna cada vez mais incorporada na prática médica, a demanda por explicabilidade – comumente enquadrada como IA Explicável (XAI) – tem aumentado, especialmente sob pressões regulatórias. No entanto, abordagens convencionais de XAI equivocam-se na compreensão da tomada de decisão clínica ao focarem em explicações pós-hoc, em vez de pistas acionáveis. Esta carta argumenta que, para calibrar a confiança nas recomendações de IA, a necessidade primária dos médicos não é por explicações convencionais pós-hoc, mas por metadados de confiabilidade: um conjunto de indicadores tanto marginais quanto específicos da instância que facilitam a avaliação da confiabilidade de cada conselho individual dado. Propomos deslocar o foco da geração de explicações estáticas para fornecer pistas acionáveis – como pontuações de confiança calibradas, alertas de fora da distribuição e casos de referência relevantes – que apoiam a confiança adaptativa e mitigam o viés de automação. Ao reformular XAI como IA Extendida e Explorável, enfatizamos a interação, a transparência da incerteza e a relevância clínica sobre as explicações propriamente ditas. Esta perspectiva incentiva o design de IA que se alinha com a cognição médica do mundo real, promove o envolvimento reflexivo e suporta uma tomada de decisão mais segura e eficaz.
PMID:41072128 | DOI:10.1016/j.cmpb.2025.109090
Para ler a postagem completa, visite o original: Leia a Postagem Completa

Respostas