Please use this identifier to cite or link to this item:
https://ri.ufs.br/jspui/handle/riufs/24289| Document Type: | Dissertação |
| Title: | Interpretabilidade por otimização: uma análise da geração de explicações black-box com algoritmos genéticos |
| Authors: | Barreto, Marcelo Henrique Lima |
| Issue Date: | 15-Dec-2025 |
| Advisor: | Carvalho, André Britto de |
| Co-advisor: | Santos, Flávio Arthur Oliveira |
| Resumo : | Com o avanço da inteligência artificial e o uso de modelos de aprendizado profundo, tornou-se fundamental compreender por que e como esses modelos chegam aos seus resultados, garantindo sua confiabilidade em aplicações críticas. A interpretabilidade de modelos refere-se à capacidade de explicar o comportamento interno e as decisões desses sistemas, tornando-os transparentes e auditáveis. No entanto, muitos métodos de explicabilidade existentes, especialmente aqueles baseados em gradientes, frequentemente produzem visualizações ruidosas, fragmentadas e inconsistentes, limitando sua utilidade prática e a confiança do usuário. Diante dessa lacuna, este trabalho propõe uma abordagem baseada em otimização para melhorar a interpretabilidade de modelos de visão computacional, visando gerar explicações mais intuitivas e confiáveis para humanos. Especificamente, propomos e validamos o método IPHA-GA, que utiliza algoritmos genéticos para tratar a interpretabilidade como um problema de otimização de caixa-preta (black-box), buscando gerar explicações consistentes e de alta fidelidade. O método foi sistematicamente avaliado em seis experimentos principais. Primeiro, validou-se o IPHA-GA em classificação de imagens (ResNet-18 sobre ImageNet), onde superou métodos tradicionais baseados em gradiente (Grad-CAM, Integrated Gradients, Saliency Maps, Guided Backpropagation) tanto na identificação de pixels relevantes (Feature Impact Index ≤ 8%) quanto irrelevantes (FII ≥ 93%). Segundo, desenvolveu-se uma abordagem ensemble que utiliza métodos tradicionais como população inicial do IPHA-GA, alcançando ganhos de até 22% em FII. Terceiro, estendeu-se o método para modelos visão-linguagem (CLIP), investigando três granularidades de máscara (pixel, patch, região de interesse), onde a abordagem ROI equilibrou precisão quantitativa com interpretabilidade humana. Quarto, uma análise de estabilidade com 30 sementes diferentes demonstrou alta confiabilidade das explicações (variância média (2 ) de 0, 032). Quinto, investigou-se viés contextual em múltiplas arquiteturas (YOLO11, CLIP), revelando que complexidade do modelo não correlaciona com dependência de background ( 42% IoU para YOLO, 32% para CLIP), mas sim com características dos dados de treinamento. Sexto, desenvolveu-se o framework GA-Attacker para avaliação de fragilidade adversarial, demonstrando que métodos de otimização, assim como baseados em gradiente, são vulneráveis a perturbações imperceptíveis (dissimilaridade IoU de 44,6%). Conclui-se que a formulação via otimização genética é promissora para interpretabilidade, oferecendo alta fidelidade em troca de maior custo computacional. |
| Abstract: | With the advancement of artificial intelligence and the use of deep learning models, it has become essential to understand why and how these models arrive at their results, ensuring their reliability in critical applications. Model interpretability refers to the ability to explain the internal behavior and decisions of these systems, making them transparent and auditable. However, many existing explainability methods, especially those based on gradients, often produce noisy, fragmented, and inconsistent visualizations, limiting their practical usefulness and user confidence. Given this gap, this work proposes an optimization-based approach to improve the interpretability of computer vision models, aiming to generate more intuitive and reliable explanations for humans. Specifically, we propose and validate the IPHA-GA method, which uses genetic algorithms to treat interpretability as a black-box optimization problem, seeking to generate consistent and high-fidelity explanations. The method was systematically evaluated through six main experiments. First, IPHA-GA was validated on image classification tasks (ResNet-18 on ImageNet), where it outperformed traditional gradient-based methods (Grad-CAM, Integrated Gradients, Saliency Maps, Guided Backpropagation) in identifying both relevant pixels (Feature Impact Index ≤ 8%) and irrelevant pixels (FII ≥ 93%). Second, an ensemble approach was developed that uses traditional methods as the initial population for IPHA-GA, achieving up to 22% gains in FII. Third, the method was extended to vision-language models (CLIP), exploring three mask granularities (pixel, patch, region of interest), where the ROI approach balanced quantitative accuracy with human interpretability. Fourth, a stability analysis with 30 different seeds demonstrated high reliability of the explanations (mean variance 2 = 0.032). Fifth, contextual bias was investigated across multiple architectures (YOLO11, CLIP), revealing that model complexity does not correlate with background dependence (∼42% IoU for YOLO, ∼32% for CLIP), but rather with characteristics of the training data. Sixth, the GA-Attacker framework was developed to assess adversarial fragility, demonstrating that optimization-based methods, as well as gradient-based ones, are vulnerable to imperceptible perturbations (IoU dissimilarity = 44.6%). We conclude that the formulation via genetic optimization is promising for interpretability, offering high fidelity at the cost of increased computational demand, and being particularly valuable for critical applications such as medical diagnosis and autonomous systems. |
| Keywords: | Aprendizado profundo Inteligêngia artificial Otimização combinatória Algorítmos genéticos Interpretabilidade Inteligência artificial explicável Otimização Visão computacional Deep learning Interpretability Explainable artificial intelligence Optimization Genetic algorithm Computer vision |
| Subject CNPQ: | CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Sponsorship: | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES |
| Language: | por |
| Institution: | Universidade Federal de Sergipe (UFS) |
| Program Affiliation: | Pós-Graduação em Ciência da Computação |
| Citation: | BARRETO, Marcelo Henrique Lima. Interpretabilidade por otimização: uma análise da geração de explicações black-box com algoritmos genéticos. 2025. 134 f. Dissertação (Mestrado em Ciência da computação) — Universidade Federal de Sergipe, São Cristóvão, 2025. |
| URI: | https://ri.ufs.br/jspui/handle/riufs/24289 |
| Appears in Collections: | Mestrado em Ciência da Computação |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| MARCELO_HENRIQUE_LIMA_BARRETO.pdf | 18,33 MB | Adobe PDF | ![]() View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
