Comparação entre SHAP (Shapley Additive Explication) e LIME (Local Interpretable Model-Agnostic Explanations)


20

Estou lendo sobre duas técnicas populares de interpretabilidade do modelo post hoc: LIME e SHAP

Estou tendo problemas para entender a principal diferença nessas duas técnicas.

Para citar Scott Lundberg , o cérebro por trás do SHAP:

Os valores SHAP vêm com as vantagens de estimativa local da caixa preta do LIME, mas também com garantias teóricas sobre consistência e precisão local da teoria dos jogos (atributos de outros métodos que unificamos)

Estou tendo problemas para entender o que são essas ' garantias teóricas sobre consistência e precisão local da teoria dos jogos '. Como o SHAP foi desenvolvido após o LIME, presumo que ele preencha algumas lacunas que o LIME não resolve. O que são aqueles?

O livro de Christoph Molnar em um capítulo sobre Shapley Estimation afirma:

A diferença entre a previsão e a previsão média é distribuída de maneira justa entre os valores de recursos da instância - a propriedade de eficiência shapley. Essa propriedade diferencia o valor de Shapley de outros métodos, como LIME. O LIME não garante a distribuição perfeita dos efeitos. Isso pode tornar o valor de Shapley o único método para fornecer uma explicação completa

Lendo isso, sinto que o SHAP não é um local, mas uma explicação glocal do ponto de dados. Eu posso estar errado aqui e precisar de algumas dicas sobre o significado desta citação acima. Para resumir minha pergunta: LIME produz explicações locais. Qual a diferença entre as explicações do SHAP e as do LIME?


2
Boa pergunta (+1), tentarei responder quando tiver tempo, mas o mais óbvio a ser observado é que o LIME não oferece uma explicação consistente globalmente, enquanto o SHAP o faz. Além disso, o SHAP definitivamente foi desenvolvido antes do LIME. O SHAP baseia-se fortemente no trabalho de Strumbelj & Kononenko dos anos 2000 / início dos anos 10, bem como em economia em jogos cooperativos de utilidades transferíveis (por exemplo, Lipovetsky e Conklin (2001)). Além disso, muito trabalho em medições de análise de sensibilidade (por exemplo, índices Sobol) também segue esse caminho. As idéias principais do SHAP eram geralmente bem conhecidas antes do NIPS 2017.
usεr11852 diz Reinstate Monic

2
(Só para esclarecer a respeito da segunda metade do meu comentário acima: não estou sugerindo que o documento do NIPS 2017 seja o resultado de plágio ou algo assim remotamente. É apenas o fato de eu sempre ver as pessoas desconsiderando muitos trabalhos anteriores em um e tratando uma recente seção transversal da evolução orgânica de um campo do conhecimento como uma grande inovação metodológica.Neste caso específico: a teoria algorítmica dos jogos existe há décadas como parte da IA, mas agora se tornou semi- legal . )
usεr11852 diz Reinstate Monic

1
Aguardando sua resposta. Por favor, contribua com suas idéias sobre isso.
user248884

2
Ainda não temos todo o tempo necessário; Eu escrevi cerca de 400 palavras, mas ele precisa de pelo menos mais 6-7 horas de trabalho, pois preciso reler alguns papéis e restringir meu texto - explicar o SHAP sem simplificar demais é um pouco desafiador (para mim, pelo menos). Provavelmente farei isso antes de meados de dezembro ... :)
usεr11852 diz Reinstate Monic

1
@ usεr11852 Claro. Aguardará :)
user248884

Respostas:


8

O LIME cria um modelo substituto localmente em torno da unidade que é a previsão que você deseja entender. Assim, é inerentemente local. Valores bem tornados 'decompõem' a previsão final na contribuição de cada atributo - é isso que alguns significam por 'consistente' (os valores somam a previsão real do modelo verdadeiro, isso não é algo que você obtém com LIME). Mas para realmente obter os valores bem torneados, é preciso tomar alguma decisão sobre o que fazer / como lidar com os valores dos atributos 'deixados de fora', é assim que os valores são alcançados. Nesta decisão, há alguma opção que pode mudar a interpretação. Se eu deixar de fora um atributo, calculo a média de todas as possibilidades? Escolha alguma 'linha de base'?

Então, Shapely realmente diz a você, de maneira aditiva, como você obteve sua pontuação, mas há algumas opções sobre o 'ponto de partida' (isto é, a decisão sobre atributos omitidos).

O LIME simplesmente informa, em um sentido local, qual é o atributo mais importante em torno do ponto de interesse dos dados.


Você também pode adicionar como cada modelo faz sua pontuação (por exemplo, pontuação shap) - achei essas pontuações bastante irritantes, pois não são normalizadas e não entendo o que elas significam!
user4581 28/11
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.