Métodos Computacionais em Programas Biomédicos. 2025 out 8;273:109090. doi: 10.1016/j.cmpb.2025.109090. Publicado online antes da impressão.
RESUMO
À medida que a IA se torna cada vez mais integrada à prática médica, a demanda por explicabilidade – comumente formulada como Inteligência Artificial Explicável (XAI) – tem crescido, especialmente sob pressões regulatórias. No entanto, abordagens convencionais de XAI misinterpretam o processo de tomada de decisão clínica ao focar em explicações pós-hoc em vez de pistas acionáveis. Esta carta argumenta que, para calibrar a confiança nas recomendações de IA, o principal desejo dos médicos não é por explicações pós-hoc convencionais, mas por metadados de confiabilidade: um conjunto de indicadores tanto marginais quanto específicos da instância que facilitam a avaliação da confiabilidade de cada conselho individual fornecido. Propomos deslocar o foco da geração de explicações estáticas para fornecer pistas acionáveis – como pontuações de confiança calibradas, alertas fora da distribuição e casos de referência relevantes – que apoiem a confiança adaptativa e mitiguem o viés de automação. Ao reformular o XAI como Inteligência Artificial Estendida e Explorável, enfatizamos a interação, transparência da incerteza e relevância clínica sobre as explicações per se. Esta perspectiva incentiva o design de IA que se alinha com a cognição médica do mundo real, promove o engajamento reflexivo e apoia tomadas de decisão mais seguras e eficazes.
PMID: 41072128 | DOI: 10.1016/j.cmpb.2025.109090
Para ler a postagem completa, visite o original: Leia a Postagem Completa

Respostas