Investigação Sobre Explainable Artificial Intelligence Voltada à Modelos Caixa-preta Tree-ensemble: Uma abordagem Baseada na Complexidade do Modelo e seu Contexto
Global Explanation. Item Response Theory. Explainable Artificial Intelligence. Black box.
A Explainable Artificial Intelligence - XAI, é uma sub-área da aprendizagem de máquina que tem como principal foco o estudo e o desenvolvimento de técnicas voltadas à explicação de modelos caixa preta e suas interpretabilidades. Nos últimos anos, pesquisadores da área de XAI vêm realizando investigações, formalizando propostas e desenvolvendo novas medidas que se propõem explicar como os modelos caixa preta realizam predições específicas. Esta é uma área de pesquisa em voga, pois cada vez mais pode-se notar sistemas inteligentes, baseados em modelos ensemble por exemplo, presentes no dia-a-dia da sociedade mesmo em problemas que envolvem contextos sensíveis, como saúde e segurança. Com isso, é crescente o número de medidas de XAI que se propõem a realizar explicações globais de modelos por meio de ranques de importância/relevância de atributos. O objetivo desta pesquisa é realizar uma investigação das medidas de XAI baseadas em ranque de atributos de modelos (dataset e algoritmo) caixa preta do tipo tree-ensemble, considerando o contexto/problema em que o modelo está inserido e também sua complexidade, a fim de possibilitar a criação de uma medida diferenciada das atuais medidas no que se refere ao algoritmo avaliativo utilizado e a interação humana no processo de criação das explicações. A metodologia aqui empregada se divide em duas principais frentes. A primeira referente a estudos sobre as relações de explicações dos modelos com seus contextos, baseando-se em conceitos de explicabilidade e interpretabilidade de modelos. Já a segunda referente a estudos sobre as relações de explicações dos modelos com suas complexidades. A primeira frente tem encontrado resultados contextualizados, pois para um modelo de predição de crime de homicídio, as atuais medidas de XAI se mostraram incapazes de explicar o modelo da mesma forma como um especialista humano o faria. Com isso, verificou-se a necessidade de se inserir o humano no processo de explicação, assim, esta frente propõem uma interessante forma, chamada de ConeXi, de combinar explicações baseadas em ranque geradas por medidas de XAI com ranques de Expectativas de Interpretabilidades (termo proposto por esta pesquisa) gerados por especialistas humanos. Já a segunda frente tem encontrado resultados mais abrangentes, pois encontrou perfis de propriedades de conjuntos de modelos mais fáceis de serem explicados e outros mais difíceis, assim, verificou-se evidências da necessidade de se propor uma nova medida de XAI capaz de explicar modelos tree-ensemble considerando sua complexidade baseada na Item Response Theory - IRT, chamada eXirt. Contudo, a pesquisa tem apresentado resultados preliminares que apontam para o desenvolvimento de uma medida de XAI que una os achados das duas frentes de pesquisa, ou seja, uma medida que considere a complexidade do modelo e permita a colaboração humana no processo de explicação, chamada eXirt ConeXi.