En la página 180 de Robust Statistics: el enfoque basado en las funciones de influencia, se encuentra la siguiente pregunta:
- 16: Demuestre que para estimadores invariantes de ubicación siempre . Encuentre el límite superior correspondiente en el punto de ruptura de la muestra finita , ambos en el caso dondees impar oes par.
La segunda parte (después del período) es realmente trivial (dada la primera), pero no puedo encontrar una manera de probar la primera parte (oración) de la pregunta.
En la sección del libro relacionada con esta pregunta, uno encuentra (p98):
donde la muestra se obtiene reemplazando puntos de datos por valores arbitrarios m x i 1 , ... , x i m y 1 , ... , y m .
La definición formal de sí se ejecuta por casi una página, pero puede considerarse como Aunque no se define explícitamente, uno puede adivinar que invariante de ubicación significa que debe satisfacer ε ∗ = lim n → ∞ ε TnTn(x1,...,xn)=Tn(x1+c,...,xn+c), para todos los c∈R
Intento responder la pregunta de Whuber en el comentario a continuación. El libro define el estimador es de varias páginas, comenzando en p82, trato de reproducir las partes principales (creo que responderá la pregunta de Whuber):
Supongamos que tenemos observaciones unidimensionales que son independientes e idénticamente distribuidas (iid). Las observaciones pertenecen a algún espacio muestral , que es un subconjunto de la línea real (a menudo simplemente es igual a , por lo que las observaciones pueden tomar cualquier valor ) Un modelo paramétrico consiste en una familia de distribuciones de probabilidad , en el espacio muestral, donde el parámetro desconocido pertenece a algún espacio de parámetrosH R H R F θ θ Θ
...
Identificamos la muestra con su distribución empírica , ignorando la secuencia de las observaciones (como casi siempre se hace). Formalmente, , viene dado por donde , es el punto de masa 1 en . Como estimadores de , consideramos estadísticas con valores reales . En un sentido más amplio, un estimador puede verse como una secuencia de estadísticas , una para cada tamaño de muestra posible . Idealmente, las observaciones son iid de acuerdo con un miembro del modelo paramétrico G n G n ( 1 / n ) ∑ n i = 1 Δ x i Δ Xθ T n = T n ( X 1 , … , X n ) = T n ( G n ) { T n , n ≥ 1 } n {F ( H ) H , pero la clase de todas las posibles distribuciones de probabilidad en es mucho mayor.
Consideramos estimadores que son funcionales [es decir, para todo y ] o asintóticamente puede ser sustituido por los funcionales. Esto significa que asumimos que existe un funcional [donde el dominio de es el conjunto de todas las distribuciones para el cual se define ] de modo que en probabilidad cuando las observaciones son iid de acuerdo con la distribución verdadera en . Decimos quen G n T : dominio ( T ) → R T F ( H )T n ( X 1 , … , X n ) → n → ∞ T ( G ) G dominio ( T ) T ( G ) { T n
es el valor asintótico de en .G
...
En este capítulo, siempre asumimos que los funcionales en estudio son consistentes con Fisher (Kallianpur y Rao, 1955): que significa que en el modelo el estimador mide asintóticamente la cantidad correcta. La noción de consistencia de Fisher es más adecuada y elegante para los funcionales que la consistencia habitual o la imparcialidad asintótica.{ T n ; n ≥ 1 }