Sobre la existencia de UMVUE y la elección del estimador de


10

Let ser una muestra aleatoria extraída de N ( θ , θ 2 ) población donde θ R .(X1,X2,,Xn)N(θ,θ2)θR

Estoy buscando el UMVUE de .θ

La densidad conjunta de es(X1,X2,,Xn)

fθ(x1,x2,,xn)=i=1n1θ2πexp[12θ2(xiθ)2]=1(θ2π)nexp[12θ2i=1n(xiθ)2]=1(θ2π)nexp[1θi=1nxi12θ2i=1nxi2n2]=g(θ,T(x))h(x)(x1,,xn)Rn,θR

, donde yh(x)=1.g(θ,T(x))=1(θ2π)nexp[1θi=1nxi12θ2i=1nxi2n2]h(x)=1

Aquí, depende de θ y de x 1 , , x n hasta T ( x ) = ( n i = 1 x i , n i = 1 x 2 i ) y h es independiente de θ . Entonces, según el teorema de factorización de Fisher-Neyman, el estadístico bidimensional T ( X ) = ( n i = 1gθx1,,xnT(x)=(i=1nxi,i=1nxi2)hθ es suficiente paraθ.T(X)=(i=1nXi,i=1nXi2)θ

Sin embargo, no es una estadística completa. Esto es porque E θT

Eθ[2(i=1nXi)2(n+1)i=1nXi2]=2n(1+n)θ2(n+1)2nθ2=0θ

y la función no es idénticamente cero.g(T(X))=2(i=1nXi)2(n+1)i=1nXi2

Pero sí sé que es una estadística mínima suficiente.T

No estoy seguro, pero creo que una estadística completa puede no existir para esta familia exponencial curva. Entonces, ¿cómo debo obtener el UMVUE? Si no existe una estadística completa, ¿puede un estimador imparcial (como en este caso) que es una función de estadística mínima suficiente ser el UMVUE? ( Tema relacionado: ¿Cuál es la condición necesaria para que un estimador imparcial sea UMVUE? )X¯

¿Qué sucede si considero el mejor estimador imparcial lineal (AZUL) de ? ¿Puede el AZUL ser el UMVUE?θ

Suponga que considero el estimador lineal imparcial de θ donde c ( n ) = T(X)=aX¯+(1a)cSθyS2=1c(n)=n12Γ(n12)Γ(n2). Como sabemos queEθ(cS)=θ. Mi idea es minimizarVar(T)para queTsea ​​el AZUL deθ. WouldT*ser entonces el UMVUE deθ?S2=1n1i=1n(XiX¯)2Eθ(cS)=θVar(T)TθTθ

He tomado un estimador imparcial lineal basado en y S ya que ( ˉ X , S 2 ) también es suficiente para θ .X¯S(X¯,S2)θ

Editar:

Una gran cantidad de trabajo hecho se ha hecho en la estimación de en el más general N ( θ , un θ 2 ) familia en la que un > 0 se conoce. Las siguientes son algunas de las referencias más relevantes:θN(θ,aθ2)a>0

Encontré la primera de estas referencias en este ejercicio de Inferencia estadística de Casella / Berger:

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

Sin embargo, mi pregunta no es sobre este ejercicio.

θ

Ahora, suponiendo que no exista un estimador imparcial uniformemente de varianza mínima, ¿cuál debería ser nuestro próximo criterio para elegir el 'mejor' estimador? ¿Buscamos el MSE mínimo, la varianza mínima o el MLE? ¿O la elección de criterios dependerá de nuestro propósito de estimación?

T1T2θT1T2T2T1

θ

El siguiente extracto es de la Teoría de la estimación puntual de Lehmann / Casella (segunda edición, páginas 87-88):

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

Es muy probable que haya entendido mal todo, pero ¿la última oración dice que, bajo ciertas condiciones, la existencia de una estadística completa es necesaria para la existencia de UMVUE? Si es así, ¿es este el resultado que debería mirar?

El último resultado debido a RR Bahadur, que se menciona al final, se refiere a esta nota.

Tras una búsqueda adicional, encontré un resultado que indica que si la estadística mínima suficiente no está completa, entonces no existe una estadística completa. Así que al menos estoy bastante convencido de que aquí no existe una estadística completa.

X¯

Respuestas:


3

Actualizar:

0^=X¯cS
c0a

El teorema 6.2.25 de C&B muestra cómo encontrar estadísticas completas suficientes para la familia exponencial siempre que contenga un conjunto abierto en R k w 1 ( θ ) = w 2

{(w1(θ),wk(θ)}
Rkw1(θ)=θ2w2(θ)=θ1R2w1(θ)=w2(θ)2(X¯,S2)θ0θ

Otra actualización:

θ~Var(θ~)<Var(θ^)θΘ

E(θ^)=θE(0^)=0Cov(θ^,0^)<0θ

θ~=θ^+b0^
Var(θ~)=Var(θ^)+b2Var(0^)+2bCov(θ^,0^)
M(θ)=2Cov(θ^,0^)Var(0^)

θ0M(θ0)>0b(0,M(θ0))Var(θ~)<Var(θ^) θ0θ^

θ^0^aθ^ θ0θ^


Veamos su idea de combinaciones lineales más de cerca.

θ^=aX¯+(1a)cS

θ^

MSE(θ^)=a2Var(X¯)+(1a)2c2Var(S)=a2θ2n+(1a)2c2[E(S2)E(S)2]=a2θ2n+(1a)2c2[θ2θ2/c2]=θ2[a2n+(1a)2(c21)]

an

aopt(n)=c211/n+c21
c2=n12(Γ((n1)/2)Γ(n/2))2

aingrese la descripción de la imagen aquí

naopt13

Si bien no hay garantía de que este sea el UMVUE, este estimador es el estimador de varianza mínima de todas las combinaciones lineales imparciales de las estadísticas suficientes.


Gracias por la actualización. No seguí a C&B como libro de texto, solo miré los ejercicios.
StubbornAtom

1
θ^
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.