XAI aborda o problema da 'caixa-preta' dos modelos complexos, onde decisões são opacas. Métodos incluem: LIME (explicações locais), SHAP (valores de Shapley para contribuição de features), Grad-CAM (visualização de atenção em imagens), attention visualization e modelos intrinsecamente interpretáveis (árvores de decisão, regressão linear). Essencial para compliance regulatório (AI Act, LGPD) e confiança em aplicações críticas.