Intentaré agregar a la otra respuesta. Primero, la integridad es una condición técnica que se justifica principalmente por los teoremas que la usan. Comencemos con algunos conceptos y teoremas relacionados donde ocurren.
Supongamos que X=(X1,X2,…,Xn) representa un vector de datos de iid, que modelamos como teniendo una distribución f(x;θ),θ∈Θ donde el parámetro θ gobierna los datos es desconocido. T=T(X) es suficiente si la distribución condicional de X∣T no depende del parámetro θ . V=V(X) esauxiliarsi la distribución deV no depende deθ (dentro de la familiaf(x;θ) ). U=U(X) es unestimador imparcial de cerosi su expectativa es cero, independientemente deθ . S=S(X) es unaestadística completasi cualquier estimador imparcial de cero basado enS es idénticamente cero, es decir, siEg(S)=0(for all θ) luegog(S)=0 ae (para todoθ ).
Ahora, suponga que tiene dos estimadores insesgados diferentes de θ basados en la estadística suficiente T , g1(T),g2(T) . Es decir, en los símbolos
Eg1(T)=θ,Eg2(T)=θ
yP(g1(T)≠g2(T))>0(para todosθ). Entoncesg1(T)−g2(T)es un estimador imparcial de cero, que no es idénticamente cero, lo que demuestra queTno está completo. Entonces, la integridad de una estadística suficienteTnos da que existe un solo estimador imparcial único deθbasado en T . Eso ya está muy cerca del teorema de Lehmann-Scheffé.
Veamos algunos ejemplos. Supongamos que X1,…,Xn ahora son uniformes en el intervalo (θ,θ+1) . Podemos mostrar que ( X(1)<X(2)<⋯<X(n) es la estadística de orden) el par (X(1),X(n)) es suficiente, pero no está completo, porque el diferencia X(n)−X(1) es auxiliar, podemos calcular su expectativa, dejar que seac(que es una función densolamente), y luegoX(n)−X(1)−cserá un estimador imparcial de cero que no es idénticamente cero. Entonces, nuestra estadística suficiente, en este caso, no es completa y suficiente. Y podemos ver lo que eso significa: existen funciones de la estadística suficiente que no son informativas sobreθ(en el contexto del modelo). Esto no puede suceder con una estadística completa suficiente; es, en cierto sentido, máximamente informativo, ya que ninguna de sus funciones no es informativa. Por otro lado, si hay alguna función de la estadística mínimamente suficiente que tiene la expectativa cero, que podría verse como un término de ruido , los términos de perturbación / ruido en los modelos tienen una expectativa de cero. Entonces podríamos decir que las estadísticas suficientes no completas contienen algo de ruido .
Mire nuevamente el rango R=X(n)−X(1) en este ejemplo. Como su distribución no depende de θ , por sí sola no contiene ninguna información sobre θ . Pero, junto con la estadística suficiente, ¡lo hace! ¿Cómo? Mire el caso en el que se observa R=1 Luego, en el contexto de nuestro modelo (conocido como verdadero), ¡tenemos un conocimiento perfecto de θ ! A saber, podemos decir con certeza que θ=X(1) . Puede verificar que cualquier otro valor para θluego lleva a que X(1) o X(n) sean una observación imposible, según el modelo asumido. Por otro lado, si observamos R=0.1 , entonces el rango de valores posibles para θ es bastante grande (ejercicio ...).
En este sentido, la estadística auxiliar R contiene cierta información sobre la precisión con la que podemos estimar θ base a estos datos y modelo. En este ejemplo, y en otros, la estadística auxiliar R "asume el papel del tamaño de la muestra". Por lo general, los intervalos de confianza y tal necesitan el tamaño de muestra n , pero en este ejemplo, podemos hacer un intervalo de confianza condicional que se calcula usando solo R , no n (ejercicio). Esta fue una idea de Fisher, esa inferencia debería estar condicionada a alguna estadística auxiliar.
Ahora, el teorema de Basu: si T es lo suficientemente completo, entonces es independiente de cualquier estadística auxiliar. Es decir, la inferencia basada en una estadística completa suficiente es más simple, ya que no necesitamos considerar la inferencia condicional. El condicionamiento sobre una estadística que es independiente de T no cambia nada, por supuesto.
Luego, un último ejemplo para dar más intuición. Cambie nuestro ejemplo de distribución uniforme a una distribución uniforme en el intervalo (θ1,θ2) (con θ1<θ2 ). En este caso, la estadística (X(1),X(n)) es completa y suficiente. ¿Qué cambió? Podemos ver que la integridad es realmente una propiedad del modelo.. En el primer caso, teníamos un espacio de parámetros restringido. Esta restricción destruyó la integridad al introducir relaciones en las estadísticas del pedido. ¡Al eliminar esta restricción, obtenemos integridad! Entonces, en cierto sentido, la falta de integridad significa que el espacio de parámetros no es lo suficientemente grande, y al ampliarlo podemos esperar restaurar la integridad (y, por lo tanto, una inferencia más fácil).
Algunos otros ejemplos donde la falta de integridad está causada por restricciones en el espacio de parámetros,
vea mi respuesta a: ¿Qué tipo de información es la información de Fisher?
Sea X1,…,Xn iid Cauchy(θ,σ) (un modelo de escala de ubicación). Luego, las estadísticas del pedido son suficientes pero no completas. Pero ahora ampliar este modelo a un modelo totalmente paramétrico, todavía IID sino de alguna distribución totalmente especificada F . Entonces las estadísticas del pedido son suficientes y completas.
Para familias exponenciales con espacio de parámetros canónicos (es decir, lo más grande posible), también se completa la estadística mínima suficiente. Pero en muchos casos, la introducción de restricciones en el espacio de parámetros, como ocurre con las familias exponenciales curvas , destruye la integridad.
Un artículo muy relevante es Una interpretación de la integridad y el teorema de Basu.