¿Cuál es la intuición detrás de definir la completitud en una estadística como imposible de formar un estimador imparcial de


21

En las estadísticas clásicas, existe la definición de que una estadística de un conjunto de datos se define como completa para un parámetro es imposible formar un estimador imparcial de partir de ella de manera no trivial. Es decir, la única forma de tener para todos es que sea casi con seguridad.Ty1,,ynθ0Eh(T(y))=0θh0

¿Hay una intuición detrás de esto? Parece que es una forma bastante mecánica de definir esto, estoy consciente de que esto se ha preguntado antes, pero me preguntaba si había una intuición muy fácil de entender que haría que los estudiantes introductorios tuvieran un tiempo más fácil para digerir el material.


2
Esa es una muy buena pregunta, tuve que investigarla yo mismo. Resulta que la razón por la cual es una definición tan mecánica y no parece intuitivamente significativa para un profesional estándar como yo es que se usa principalmente para probar contribuciones fundamentales en estadística matemática. En particular, mi breve búsqueda reveló que el teorema de Lehmann-Scheffé y el teorema de Basu requieren la completitud de una estadística para mantenerse. Estas son contribuciones de mediados de los años cincuenta. No puedo ofrecerle una explicación intuitiva, pero si realmente desea construir una, tal vez las pruebas asociadas
Jeremias K

Respuestas:


18

Intentaré agregar a la otra respuesta. Primero, la integridad es una condición técnica que se justifica principalmente por los teoremas que la usan. Comencemos con algunos conceptos y teoremas relacionados donde ocurren.

Supongamos que X=(X1,X2,,Xn) representa un vector de datos de iid, que modelamos como teniendo una distribución f(x;θ),θΘ donde el parámetro θ gobierna los datos es desconocido. T=T(X) es suficiente si la distribución condicional de XT no depende del parámetro θ . V=V(X) esauxiliarsi la distribución deV no depende deθ (dentro de la familiaf(x;θ) ). U=U(X) es unestimador imparcial de cerosi su expectativa es cero, independientemente deθ . S=S(X) es unaestadística completasi cualquier estimador imparcial de cero basado enS es idénticamente cero, es decir, siEg(S)=0(for all θ) luegog(S)=0 ae (para todoθ ).

Ahora, suponga que tiene dos estimadores insesgados diferentes de θ basados ​​en la estadística suficiente T , g1(T),g2(T) . Es decir, en los símbolos

Eg1(T)=θ,Eg2(T)=θ
yP(g1(T)g2(T))>0(para todosθ). Entoncesg1(T)g2(T)es un estimador imparcial de cero, que no es idénticamente cero, lo que demuestra queTno está completo. Entonces, la integridad de una estadística suficienteTnos da que existe un solo estimador imparcial único deθbasado en T . Eso ya está muy cerca del teorema de Lehmann-Scheffé.

Veamos algunos ejemplos. Supongamos que X1,,Xn ahora son uniformes en el intervalo (θ,θ+1) . Podemos mostrar que ( X(1)<X(2)<<X(n) es la estadística de orden) el par (X(1),X(n)) es suficiente, pero no está completo, porque el diferencia X(n)X(1) es auxiliar, podemos calcular su expectativa, dejar que seac(que es una función densolamente), y luegoX(n)X(1)cserá un estimador imparcial de cero que no es idénticamente cero. Entonces, nuestra estadística suficiente, en este caso, no es completa y suficiente. Y podemos ver lo que eso significa: existen funciones de la estadística suficiente que no son informativas sobreθ(en el contexto del modelo). Esto no puede suceder con una estadística completa suficiente; es, en cierto sentido, máximamente informativo, ya que ninguna de sus funciones no es informativa. Por otro lado, si hay alguna función de la estadística mínimamente suficiente que tiene la expectativa cero, que podría verse como un término de ruido , los términos de perturbación / ruido en los modelos tienen una expectativa de cero. Entonces podríamos decir que las estadísticas suficientes no completas contienen algo de ruido .

Mire nuevamente el rango R=X(n)X(1) en este ejemplo. Como su distribución no depende de θ , por sí sola no contiene ninguna información sobre θ . Pero, junto con la estadística suficiente, ¡lo hace! ¿Cómo? Mire el caso en el que se observa R=1 Luego, en el contexto de nuestro modelo (conocido como verdadero), ¡tenemos un conocimiento perfecto de θ ! A saber, podemos decir con certeza que θ=X(1) . Puede verificar que cualquier otro valor para θluego lleva a que X(1) o X(n) sean una observación imposible, según el modelo asumido. Por otro lado, si observamos R=0.1 , entonces el rango de valores posibles para θ es bastante grande (ejercicio ...).

En este sentido, la estadística auxiliar R contiene cierta información sobre la precisión con la que podemos estimar θ base a estos datos y modelo. En este ejemplo, y en otros, la estadística auxiliar R "asume el papel del tamaño de la muestra". Por lo general, los intervalos de confianza y tal necesitan el tamaño de muestra n , pero en este ejemplo, podemos hacer un intervalo de confianza condicional que se calcula usando solo R , no n (ejercicio). Esta fue una idea de Fisher, esa inferencia debería estar condicionada a alguna estadística auxiliar.

Ahora, el teorema de Basu: si T es lo suficientemente completo, entonces es independiente de cualquier estadística auxiliar. Es decir, la inferencia basada en una estadística completa suficiente es más simple, ya que no necesitamos considerar la inferencia condicional. El condicionamiento sobre una estadística que es independiente de T no cambia nada, por supuesto.

Luego, un último ejemplo para dar más intuición. Cambie nuestro ejemplo de distribución uniforme a una distribución uniforme en el intervalo (θ1,θ2) (con θ1<θ2 ). En este caso, la estadística (X(1),X(n)) es completa y suficiente. ¿Qué cambió? Podemos ver que la integridad es realmente una propiedad del modelo.. En el primer caso, teníamos un espacio de parámetros restringido. Esta restricción destruyó la integridad al introducir relaciones en las estadísticas del pedido. ¡Al eliminar esta restricción, obtenemos integridad! Entonces, en cierto sentido, la falta de integridad significa que el espacio de parámetros no es lo suficientemente grande, y al ampliarlo podemos esperar restaurar la integridad (y, por lo tanto, una inferencia más fácil).

Algunos otros ejemplos donde la falta de integridad está causada por restricciones en el espacio de parámetros,

  • vea mi respuesta a: ¿Qué tipo de información es la información de Fisher?

  • Sea X1,,Xn iid Cauchy(θ,σ) (un modelo de escala de ubicación). Luego, las estadísticas del pedido son suficientes pero no completas. Pero ahora ampliar este modelo a un modelo totalmente paramétrico, todavía IID sino de alguna distribución totalmente especificada F . Entonces las estadísticas del pedido son suficientes y completas.

  • Para familias exponenciales con espacio de parámetros canónicos (es decir, lo más grande posible), también se completa la estadística mínima suficiente. Pero en muchos casos, la introducción de restricciones en el espacio de parámetros, como ocurre con las familias exponenciales curvas , destruye la integridad.

Un artículo muy relevante es Una interpretación de la integridad y el teorema de Basu.


7

Alguna intuición puede estar disponible a partir de la teoría de los mejores estimadores imparciales (varianza mínima).

Si entonces W es el mejor estimador imparcial de τ ( θ ) si W no está correlacionado con todos los estimadores imparciales de cero.EθW=τ(θ)Wτ(θ)W

Prueba : Sea un estimador imparcial no correlacionado con todos los estimadores imparciales de cero. Sea W otro estimador tal que E θ W = E θ W = τ ( θ ) . Escribe W = W + ( W - W ) . Por supuesto, V a r θ W = V a r θ W + V a r θ (WWEθW=EθW=τ(θ)W=W+(WW) . Por lo tanto, para cualquier W ' , V un r θ W 'V un r θ W .VarθW=VarθW+Varθ(WW)WVarθWVarθW

Ahora suponga que es un mejor estimador imparcial. Deje que haya algún otro estimador U con E θ U = 0 . ϕ a : = W + a U también es imparcial para τ ( θ ) . Tenemos V a r θ ϕ a : = V a r θ W + 2 a C o v θ ( W , U ) + a 2WUEθU=0ϕa:=W+aUτ(θ) Si hubiera un θ 0Θ tal que C o v θ 0 ( W , U ) < 0 , obtendríamos V a r θ ϕ a < V a r θ W para a ( 0 , - 2 C o v θ 0 ( W , U ) / V a

Varθϕa:=VarθW+2aCovθ(W,U)+a2VarθU.
θ0ΘCovθ0(W,U)<0Varθϕa<VarθW . W no podría ser el mejor estimador imparcial. QEDa(0,2Covθ0(W,U)/Varθ0U)W

Intuitivamente, el resultado dice que si un estimador es óptimo, no debe ser posible mejorarlo simplemente agregando algo de ruido, en el sentido de combinarlo con un estimador que es solo cero en promedio (siendo un estimador imparcial de cero )

Desafortunadamente, es difícil caracterizar todos los estimadores imparciales de cero. La situación se vuelve mucho más simple si el cero mismo es el único estimador imparcial de cero, ya que cualquier estadística satisface C o v θ ( W , 0 ) = 0 . La integridad describe tal situación.WCovθ(W,0)=0

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.