Descrição
O presente estudo aborda o desenvolvimento de um sistema de inteligência artificial explicável (XAI) com foco no diagnóstico de problemas cerebrais a partir da análise de imagens médicas. Com a crescente aplicação da IA na medicina, surge a necessidade de tornar os modelos mais transparentes e compreensíveis, especialmente em contextos clínicos onde decisões impactam diretamente a vida dos pacientes. O objetivo central da pesquisa foi criar um sistema que combinasse alta acurácia diagnóstica com capacidade de explicação das decisões algorítmicas, de modo a favorecer sua aceitação por profissionais da saúde. Para isso, a metodologia adotada envolveu a coleta e o pré-processamento de imagens de ressonância magnética e tomografia computadorizada, o desenvolvimento de um modelo baseado em redes neurais convolucionais, a aplicação de técnicas de explicabilidade como LIME, SHAP e Grad-CAM, e a validação qualitativa com especialistas médicos. Os resultados demonstraram desempenho elevado do sistema em métricas como acurácia, sensibilidade e especificidade, além de alta aceitação clínica, especialmente pela clareza visual das explicações fornecidas. Conclui-se que a integração entre modelos de IA avançados e técnicas de explicação é essencial para consolidar soluções tecnológicas mais confiáveis, éticas e centradas no ser humano, contribuindo significativamente para uma medicina mais precisa, auditável e humanizada.
Palavras-chave: IA; Medicina; Diagnóstico.
| Selecione a modalidade do seu trabalho | Resumo Simples |
|---|