Estoy leyendo sobre dos técnicas populares de interpretación de modelos post hoc: LIME y SHAP
Tengo problemas para comprender la diferencia clave en estas dos técnicas.
Para citar a Scott Lundberg , el cerebro detrás de SHAP:
Los valores SHAP vienen con las ventajas de estimación local de caja negra de LIME, pero también vienen con garantías teóricas sobre la consistencia y la precisión local de la teoría del juego (atributos de otros métodos que unificamos)
Tengo algunos problemas para entender cuáles son estas ' garantías teóricas sobre la coherencia y la precisión local de la teoría de juegos '. Dado que SHAP se desarrolló después de LIME, supongo que llena algunos vacíos que LIME no aborda. ¿Que son esos?
El libro de Christoph Molnar en un capítulo sobre la Estimación de Shapley afirma:
La diferencia entre la predicción y la predicción promedio se distribuye equitativamente entre los valores de las características de la instancia: la propiedad de eficiencia de shapley. Esta propiedad establece el valor de Shapley aparte de otros métodos como LIME. LIME no garantiza distribuir perfectamente los efectos. Podría hacer que el valor de Shapley sea el único método para entregar una explicación completa
Al leer esto, tengo la sensación de que SHAP no es una explicación local sino glocal del punto de datos. Podría estar equivocado aquí y necesito una idea de lo que significa esta cita anterior. Para resumir mi pregunta: LIME produce explicaciones locales. ¿En qué se diferencian las explicaciones de SHAP de las de LIME?