La función de distribución acumulativa conjunta para el mínimo y el máximo x ( n ) para una muestra de n de una distribución gaussiana con media μ y desviación estándar σ esx(1)x(n)nμσ
F(x(1),x(n);μ,σ)=Pr(X(1)<x(1),X(n)<x(n))=Pr(X(n)<x(n))−Pr(X(1)>x(1),X(n)<x(n)=Φ(x(n)−μσ)n−[Φ(x(n)−μσ)−Φ(x(1)−μσ)]n
donde es el CDF gaussiano estándar. La diferenciación con respecto a x ( 1 ) y x ( n ) da la función de densidad de probabilidad conjuntaΦ(⋅)x(1)x(n)
F( x( 1 ), x( n ); μ , σ) =n ( n - 1 ) [ Φ ( x( n )- μσ) -Φ ( x( 1 )- μσ) ]n - 2⋅ ϕ ( x( n )- μσ) ⋅ϕ ( x( 1 )- μσ) ⋅ 1σ2
donde es el PDF gaussiano estándar. Tomar los términos de registro y descarte que no contienen parámetros proporciona la función de probabilidad de registroϕ ( ⋅ )
ℓ ( μ , σ; X( 1 ), x( n )) =( n - 2 ) log[Φ(x(n)−μσ)−Φ(x(1)−μσ)]+logϕ(x(n)−μσ)+logϕ(x(1)−μσ)−2logσ
Esto no se ve muy tratable pero es fácil ver que se maximiza cualquiera que sea el valor de por el ajuste μ = μ = x ( n ) + x ( 1 )σ , es decir, el punto medio: el primer término se maximiza cuando el argumento de un CDF es negativo del argumento del otro; los términos segundo y tercero representan la probabilidad conjunta de dos variables normales independientes.μ=μ^=x(n)+x(1)2
Sustituyendo μ en el diario de probabilidad y escribir r = x ( n ) - x ( 1 ) da
ℓ ( σ ; x ( 1 ) , x ( n ) , μ ) = ( n - 2 ) log [ 1 - 2 Φ ( - rμ^r=x(n)−x(1)
ℓ(σ;x(1),x(n),μ^)=(n−2)log[1−2Φ(−r2σ)]−r24σ2−2logσ
Esta expresión tiene que ser maximizado numéricamente (por ejemplo, con el optimize
de la R stat
paquete) para encontrar σ . (Resulta que σ = k ( n ) ⋅ r , donde k es una constante que sólo depende de n -tal vez a alguien más matemáticamente hábil de lo que podía demostrar por qué.)σ^σ^=k(n)⋅rkn
Las estimaciones no sirven sin una medida de precisión que lo acompañe. La información de Fisher observada puede evaluarse numéricamente (por ejemplo, con hessian
el numDeriv
paquete de R ) y usarse para calcular errores estándar aproximados:
I(σ)=-∂2ℓ(σ; μ )
I(μ)=−∂2ℓ(μ;σ^)(∂μ)2∣∣∣μ=μ^
I(σ)=−∂2ℓ(σ;μ^)(∂σ)2∣∣∣σ=σ^
Sería interesante comparar las estimaciones de probabilidad y método de momentos para en términos de sesgo (¿es el MLE consistente?), La varianza y el error cuadrático medio. También está el problema de la estimación para aquellos grupos donde se conoce la media de la muestra además del mínimo y el máximo.σ