En primer lugar, esta es una pregunta de autoaprendizaje, por lo que voy a entrar demasiado en todos y cada uno de los pequeños detalles técnicos, pero tampoco voy a entrar en un frenesí de derivación. Hay muchas maneras de hacer esto. Te ayudaré utilizando las propiedades generales del estimador de máxima verosimilitud.
Información de contexto
Para resolver su problema, creo que necesita estudiar la máxima probabilidad desde el principio. Probablemente esté utilizando algún tipo de libro de texto, y la respuesta realmente debería estar allí en alguna parte. Te ayudaré a descubrir qué buscar.
La probabilidad máxima es un método de estimación que es básicamente lo que llamamos un estimador M (piense en la "M" como "maximizar / minimizar"). Si se cumplen las condiciones requeridas para usar estos métodos, podemos mostrar que las estimaciones de los parámetros son consistentes y normalmente distribuidas asintóticamente, por lo que tenemos:
norte--√(θ^-θ0 0)→reNormal ( 0 ,UNA- 10 0si0 0UNA- 10 0) ,
donde y son algunas matrices. Cuando usamos la máxima verosimilitud podemos mostrar que , y por lo tanto tenemos una expresión simple:
Tenemos que donde denota la arpillera. Esto es lo que necesita estimar para obtener su varianza.UNA0 0si0 0UNA0 0=si0 0
norte--√(θ^-θ0 0)→reNormal ( 0 ,UNA- 10 0) .
UNA0 0≡ - E( H(θ0 0) )H
Su problema específico
Entonces, ¿Cómo lo hacemos? Aquí llamemos a nuestro vector de parámetros lo que haces: . Esto es solo un escalar, por lo que nuestra "puntuación" es solo la derivada y el "hessian" es solo la derivada de segundo orden. Nuestra función de probabilidad se puede escribir como:
que es lo que queremos maximizar. Usó la primera derivada de esto o la probabilidad de registro para encontrar su . En lugar de establecer la primera derivada igual a cero, podemos diferenciar nuevamente para encontrar la derivada de segundo orden . Primero tomamos registros:
Luego nuestra 'puntuación' es:
y nuestro 'hessian':
θpags
l ( p ) = ( p)X( 1 - p)n - x,
pags∗H( p )l l ( p ) ≡ log( l ( p ) ) = x log( p ) + ( n - x ) log( 1 - p )
ll′( p ) =Xpags+n - x1 - p,
H( p ) = ll′ ′( p ) = -Xpags2-n - x( 1 - p)2.
Entonces nuestra teoría general de arriba solo te dice que encuentres . Ahora solo tiene que tomar la expectativa de (Sugerencia: use ), multiplique por y tome el inverso. Entonces tendrás tu varianza del estimador.
( - E( H( p ) ))- 1H( p )mi(x/n)=p-1