¿Cómo entender que el MLE de varianza está sesgado en una distribución gaussiana?


12

Ilustración PRML de cómo surge el sesgo al usar la máxima probabilidad para determinar la varianza de un gaussiano

Estoy leyendo PRML y no entiendo la imagen. ¿Podría darnos algunas pistas para comprender la imagen y por qué el MLE de la varianza en una distribución gaussiana está sesgado?

fórmula 1.55: fórmula 1.56 σ 2 M L E =1

μMLE=1Nn=1Nxn
σMLE2=1Nn=1N(xnμMLE)2

Agregue la etiqueta de autoestudio.
StatsStudent

2
¿Por qué para cada gráfico, solo un punto de datos azul es visible para mí? por cierto, mientras intentaba editar el desbordamiento de dos subíndices en esta publicación, el sistema requiere "al menos 6 caracteres" ... vergonzoso.
Zhanxiong

¿Qué es lo que realmente quiere entender, la imagen o por qué la estimación de varianza MLE está sesgada? Lo primero es muy confuso pero puedo explicar lo último.
TrynnaDoStat

sí, encontré en la nueva versión que cada gráfico tiene dos datos azules, mi pdf es viejo
ningyuwhut

@ TrynnaDoStat, lo siento, mi pregunta no está clara. Lo que quiero saber es por qué la estimación de varianza MLE está sesgada. y cómo se expresa esto en este gráfico
ningyuwhut

Respuestas:


25

Intuición

El sesgo "proviene" (no es en absoluto un término técnico) del hecho de que está sesgado para . La pregunta natural es: "bueno, ¿cuál es la intuición de por qué está sesgado para "? La intuición es que en una media de muestra no cuadrada, a veces perdemos el valor verdadero por sobreestimar y otras por subestimar. Pero, sin cuadrar, la tendencia a sobreestimar y subestimar se cancelará mutuamente. Sin embargo, cuando ajustamos la tendencia a subestimar (perder el verdadero valor deμ 2 E [ ˉ x 2 ] μ 2 μ ˉ x μE[x¯2]μ2E[x¯2]μ2μx¯μpor un número negativo) también se eleva al cuadrado y, por lo tanto, se vuelve positivo. Por lo tanto, ya no se cancela y hay una ligera tendencia a sobreestimar.

Si la intuición detrás de por qué está sesgada para todavía no está clara, intente comprender la intuición detrás de la desigualdad de Jensen (buena explicación intuitiva aquí ) y aplíquela a .μ 2 E [ x 2 ]x2μ2E[x2]

Probemos que el MLE de varianza para una muestra iid está sesgado. Luego verificaremos analíticamente nuestra intuición.

Prueba

Sea .σ^2=1Nn=1N(xnx¯)2

Queremos mostrar .E[σ^2]σ2

E[σ^2]=E[1Nn=1N(xnx¯)2]=1NE[n=1N(xn22xnx¯+x¯2)]=1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]

Usando el hecho de que y ,n=1Nxn=Nx¯n=1Nx¯2=Nx¯2

1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]=1NE[n=1Nxn22Nx¯2+Nx¯2]=1NE[n=1Nxn2Nx¯2]=1NE[n=1Nxn2]E[x¯2]=1Nn=1NE[xn2]E[x¯2]=E[xn2]E[x¯2]

Con el último paso siguiente debido a que es igual en debido a que proviene de la misma distribución.E[xn2]n

Ahora, recuerde la definición de varianza que dice . A partir de aquí, obtenemos lo siguienteσx2=E[x2]E[x]2

E[xn2]E[x¯2]=σx2+E[xn]2σx¯2E[xn]2=σx2σx¯2=σx2Var(x¯)=σx2Var(1Nn=1Nxn)=σx2(1N)2Var(n=1Nxn)

Tenga en cuenta que hemos ajustado adecuadamente la constante al sacarla de . ¡Presta especial atención a eso!1NVar()

σx2(1N)2Var(n=1Nxn)=σx2(1N)2Nσx2=σx21Nσx2=N1Nσx2

que, por supuesto, no es igual a .σx2

Verifique analíticamente nuestra intuición

Podemos verificar algo la intuición suponiendo que conocemos el valor de y conectándolo a la prueba anterior. Como ahora sabemos , ya no tenemos la necesidad de estimar y, por lo tanto, nunca lo sobreestimamos con . Veamos que esto "elimina" el sesgo en .μμμ2E[x¯2]σ^2

Deje que .σ^μ2=1Nn=1N(xnμ)2

De la prueba anterior, tomemos reemplazando con el valor verdadero .ˉ x μE[xn2]E[x¯2]x¯μ

E[xn2]E[μ2]=E[xn2]μ2=σx2+E[xn]2μ2=σx2

que es imparcial!


3
+1 Puede valer la pena comentar que su demostración no requiere que tenga una distribución gaussiana. (Sin embargo, para otras distribuciones, la varianza de la muestra podría no ser el MLE para el parámetro de varianza.)X
whuber

1
Gracias por tu explicación. Necesito algo de tiempo para entenderlo. Además, encontré algún error en las ecuaciones. ¿Puede verificarlo? ¡Gracias!
ningyuwhut

@ whuber - No estoy seguro de por qué dijiste "... la demostración no requiere que tenga una distribución gaussiana". No hablaríamos de la solución ML de varianza para cada distribución, digamos una distribución binomial. Así que implícitamente estamos asumiendo que la distribución X tiene varianza como uno de los parámetros. X
KGhatak
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.