Visualizando Falhas Críticas em Modelos de Aprendizado

Igor Lacerda Faria da Silva

Os recentes avanços no desenvolvimento de algoritmos de Aprendizado de Máquina, bem como o aumento da adoção destes modelos, geraram uma grande demanda por explicabilidade. Este trabalho apresenta uma ferramenta desenvolvida para auxiliar na explicabilidade de modelos de previsão (mais especificamente, de classificação), inspirada em (PRUDÊNCIO; SILVA FILHO, 2022). Diferentemente da maioria das publicações na área, são exploradas as regiões de falha dos modelos (ao invés de se estudar as features que levaram a uma dada previsão). O funcionamento básico da aplicação consiste em encontrar regiões nos dados onde as previsões são estatisticamente excepcionais, ou seja, regiões cujo desempenho é muito abaixo do esperado, e exibi-las por meio de uma visualização interativa. Em comparação com o artigo original, é usado um algoritmo diferente (Beam Search) para a descoberta das regiões.


2024/1 - POC1

Orientador: Renato Vimieiro

Palavras-chave: explicabilidade, descoberta de subgrupos, visualização de dados

Link para vídeo

PDF Disponível