¿Cuál es la relación entre el puntaje GINI y la razón de probabilidad logarítmica?


21

Estoy estudiando árboles de clasificación y regresión, y una de las medidas para la ubicación dividida es el puntaje GINI.

Ahora estoy acostumbrado a determinar la mejor ubicación dividida cuando el registro de la razón de probabilidad de los mismos datos entre dos distribuciones es cero, lo que significa que la probabilidad de membresía es igualmente probable.

Mi intuición dice que debe haber una conexión de algún tipo, que GINI debe tener una buena base en una teoría matemática de la información (Shannon) pero no entiendo a GINI lo suficiente como para derivar la relación yo mismo.

Preguntas:

  • ¿Cuál es la derivación de los "primeros principios" del puntaje de impureza GINI como medida para dividir?
  • ¿Cómo se relaciona el puntaje GINI con el logaritmo de la razón de probabilidad u otros fundamentos teóricos de la información (la entropía de Shannon, el pdf y la entropía cruzada son parte de esos)?

Referencias

La entropía de Shannon se describe como:

H(x)=ΣiP(xi)logbP(xi)

Extendiendo esto al caso multivariante obtenemos:

H(X,Y)=ΣxΣyP(x,y)logbP(x,y)

La entropía condicional se define de la siguiente manera:

H(X|Y)=Σyp(x,y)logbp(x)p(x,y)or,H(X|Y)=H(X,Y)H(Y)

El registro de la razón de probabilidades se usa para la detección de cambios abruptos y se deriva usando estos. (No tengo derivación delante de mí).

Impureza GINI:

  • La forma general de impureza GINI es yo=yo=1metroFyo(1-Fyo)

Pensamientos:

  • La división se realiza en una medida de impureza. La "pureza" alta es probablemente lo mismo que la baja entropía. El enfoque probablemente esté relacionado con la minimización de la entropía.
  • Es probable que la distribución de base supuesta sea uniforme, o posiblemente con gaussiano que agita a mano. Es probable que estén haciendo una mezcla de distribuciones.
  • Me pregunto si la derivación del gráfico Shewhart puede aplicarse aquí.
  • PAGS(X=k)=(21)pags(1-pags)

(adicional)

  • La forma también es consistente con una distribución beta-binomial que es un conjugado previo para una distribución hipergeométrica. Las pruebas hipergeométricas a menudo se usan para determinar qué muestras están representadas de más o menos en una muestra. También hay una relación con la prueba exacta de Fisher, sea lo que sea (nota personal, ve a aprender más sobre esto).

Editar: sospecho que hay una forma de GINI que funciona muy bien con lógica digital y / o rb-trees. Espero explorar esto en un proyecto de clase este otoño.


1
¿Es problemático si respondo mi propia pregunta?
EngrStudent - Restablece a Mónica el

1
No, en absoluto. Si se te ocurre lo que crees que es una respuesta razonable, dispara.
gung

@EngrStudent. buena pregunta, pero el primer enlace que proporciona en la sección de referencias se relaciona con el coeficiente de Gini, que no tiene nada que ver con la medida de Gini utilizada en CART
Antoine

Con respecto al índice de Gini, acabo de publicar una interpretación simple: stats.stackexchange.com/questions/308885/…
Picaud Vincent

Respuestas:


11

Usaré la misma notación que usé aquí: Matemáticas detrás de los árboles de clasificación y regresión.

yosolyo

  1. Gini:solyonorteyo(mi)=1-j=1dopagsj2
  2. Entropía:H(mi)=-j=1dopagsjIniciar sesiónpagsj

β

Hβ(mi)=1β-1(1-j=1dopagsjβ)

Giniβ=2Hβ1

sol

sol-estadística=2El |miEl |yosol

Dependiendo de la comunidad (estadísticas / minería de datos), las personas prefieren una medida u otra (Pregunta relacionada aquí ). Pueden ser más o menos equivalentes en el proceso de inducción del árbol de decisión. Sin embargo, la probabilidad de registro puede dar puntajes más altos a las particiones equilibradas cuando hay muchas clases [Nota técnica: algunas propiedades de los criterios de división. Breiman 1996].

Gini Gain puede ser más agradable porque no tiene logaritmos y puede encontrar la forma cerrada para su valor esperado y su varianza bajo suposición de división aleatoria [Alin Dobra, Johannes Gehrke: corrección de sesgo en la construcción del árbol de clasificación. ICML 2001: 90-97]. No es tan fácil para obtener información (si está interesado, consulte aquí ).


1

Buena pregunta. Desafortunadamente, todavía no tengo suficiente reputación para votar o comentar, ¡así que respondo en su lugar!

No estoy muy familiarizado con la prueba de razón, pero me parece que es un formalismo utilizado para comparar la probabilidad de que los datos surjan de dos (o más) distribuciones diferentes , mientras que el coeficiente de Gini es una estadística resumida de una sola distribución.

Una forma útil de pensar en el coeficiente de Gini (IMO) es como el área bajo la curva de Lorenz (relacionada con el cdf).

Puede ser posible equiparar la entropía de Shannon con Gini utilizando la definición dada en el OP para entropía:

H=ΣyoPAGS(Xyo)Iniciar sesiónsiPAGS(Xyo)

y la definición de Gini:

sol=1-1μΣyoPAGS(Xyo)(Syo-1+Syo)

Si=Σj=1iP(xi)xi (i.e. the cumulative mean up to xi).

It doesn't look like an easy task though!


A log likelihood ratio is operated on the same data. One of the distributions can be the same general form as the other, but its parameters were fitted to data when some other criterion was true. For instance, you could have one distribution whose parameters describe healthy production process variation (not necessarily Gaussian) and another that is fit to current production process values, and operate both on current production process values compare the log-likelihood ratio to a threshold value indicating possibility of excursion. It can the actual to be compared with the ideal.
EngrStudent - Reinstate Monica
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.