Solución al ejercicio 2.2a.16 de "Estadísticas robustas: el enfoque basado en las funciones de influencia"


9

En la página 180 de Robust Statistics: el enfoque basado en las funciones de influencia, se encuentra la siguiente pregunta:

  • 16: Demuestre que para estimadores invariantes de ubicación siempre ε12 . Encuentre el límite superior correspondiente en el punto de ruptura de la muestra finitaεn , ambos en el caso dondenes impar ones par.

La segunda parte (después del período) es realmente trivial (dada la primera), pero no puedo encontrar una manera de probar la primera parte (oración) de la pregunta.

En la sección del libro relacionada con esta pregunta, uno encuentra (p98):

εnTn(xl,,xn)

εn(Tn;xi,,xn):=1nmax{m:maxi1,,imsupy1,,ym|Tn(z1,,zn)|<}

donde la muestra se obtiene reemplazando puntos de datos por valores arbitrarios m x i 1 , ... , x i m y 1 , ... , y m .(z1,,zn)mxi1,,ximy1,,ym.

La definición formal de sí se ejecuta por casi una página, pero puede considerarse como Aunque no se define explícitamente, uno puede adivinar que invariante de ubicación significa que debe satisfacer ε = lim n εε TnTn(x1,...,xn)=Tn(x1+c,...,xn+c), para todos los cR

ε=limnεn
Tn
Tn(x1,,xn)=Tn(x1+c,,xn+c), for all cR

Intento responder la pregunta de Whuber en el comentario a continuación. El libro define el estimador es de varias páginas, comenzando en p82, trato de reproducir las partes principales (creo que responderá la pregunta de Whuber):Tn

Supongamos que tenemos observaciones unidimensionales que son independientes e idénticamente distribuidas (iid). Las observaciones pertenecen a algún espacio muestral , que es un subconjunto de la línea real (a menudo simplemente es igual a , por lo que las observaciones pueden tomar cualquier valor ) Un modelo paramétrico consiste en una familia de distribuciones de probabilidad , en el espacio muestral, donde el parámetro desconocido pertenece a algún espacio de parámetrosH R H R F θ θ Θ(X1,,Xn)HRHRFθθΘ

...

Identificamos la muestra con su distribución empírica , ignorando la secuencia de las observaciones (como casi siempre se hace). Formalmente, , viene dado por donde , es el punto de masa 1 en . Como estimadores de , consideramos estadísticas con valores reales . En un sentido más amplio, un estimador puede verse como una secuencia de estadísticas , una para cada tamaño de muestra posible . Idealmente, las observaciones son iid de acuerdo con un miembro del modelo paramétrico G n G n ( 1 / n ) n i = 1 Δ x i Δ X(X1,,Xn)GnGn(1/n)i=1nΔxiΔXθ T n = T n ( X 1 , , X n ) = T n ( G n ) { T n , n 1 } n {XθTn=Tn(X1,,Xn)=Tn(Gn){Tn,n1}nF ( H ) H{Fθ;θΘ} , pero la clase de todas las posibles distribuciones de probabilidad en es mucho mayor.F(H)H

Consideramos estimadores que son funcionales [es decir, para todo y ] o asintóticamente puede ser sustituido por los funcionales. Esto significa que asumimos que existe un funcional [donde el dominio de es el conjunto de todas las distribuciones para el cual se define ] de modo que en probabilidad cuando las observaciones son iid de acuerdo con la distribución verdadera en . Decimos quen G n T : dominio ( T ) R T F ( H )Tn(Gn)=T(Gn)nGnT:domain(T)RTF(H)T n ( X 1 , , X n ) n T ( G ) G dominio ( T ) T ( G ) { T nT

Tn(X1,,Xn)nT(G)
Gdomain(T)T(G)es el valor asintótico de en .G{Tn;n1}G

...

En este capítulo, siempre asumimos que los funcionales en estudio son consistentes con Fisher (Kallianpur y Rao, 1955): que significa que en el modelo el estimador mide asintóticamente la cantidad correcta. La noción de consistencia de Fisher es más adecuada y elegante para los funcionales que la consistencia habitual o la imparcialidad asintótica.{ T n ; n 1 }

T(Fθ)=θ for all θΘ
{Tn;n1}


1
¿Cómo define exactamente este libro "estimador"? Me parece que cualquier estimador acotado debe tener un punto de ruptura de , por lo que seguramente está imponiendo algún tipo de restricciones especiales en ; y siempre existen estimadores de ubicación invariante acotados (incluirán las constantes). 1 T nTn1Tn
whuber

1
Gracias por el material expandido. Todavía parece que hay muchos contraejemplos. Uno simple es el estimador constante para la familia de un parámetro de distribuciones normales de varianza . Este es un estimador de la varianza invariante de la ubicación. Su punto de ruptura es . Es coherente con Fisher (trivialmente), pero necesito interpretar la definición cuidadosamente: " " no puede referirse necesariamente a todos los parámetros, ¡porque entonces ningún estimador invariante de ubicación podría ser consistente! 1 1 θTn(X1,,Xn)=111θ
whuber

@whuber: Gracias, entiendo tu contraejemplo. Creo que me pondré en contacto con el autor y pediré más información ...
user603

Respuestas:


4

Los libros de estadísticas más antiguos usaban "invariante" de una manera ligeramente diferente de lo que cabría esperar; La terminología ambigua persiste. Un equivalente más moderno es "equivalente" (ver las referencias al final de esta publicación). En el contexto actual significa

Tn(X1+c,X2+c,,Xn+c)=Tn(X1,X2,,Xn)+c

para todos los reales .c

Para abordar la pregunta, supongamos que tiene la propiedad de que para suficientemente grande , todo real y todo ,Tnncmεn

|Tn(X+Y)Tn(X)|=o(|c|)

siempre que difiera de en como máximo en como máximo coordenadas.YXcm

(Esta es una condición más débil de lo que se supone en la definición de límite de ruptura. De hecho, todo lo que realmente debemos suponer es que cuando es suficientemente grande, la expresión " " tiene algún valor garantizado para ser menor que de tamaño.)no(|c|)|c|/2

La prueba es por contradiccion. Supongamos, en consecuencia, que esta también es equivalente y supongamos . Entonces, para suficientemente grande , es un número entero para el cual y . Para cualquier número real defineε * > 1 / 2 n m ( n ) = ε * n Tnε>1/2nm(n)=εnm(n)/nε(nm(n))/nεa,b

tn(a,b)=Tn(a,a,,a, b,b,,b)

donde hay 'sy ' s. Al cambiar o menos de las coordenadas, concluimos ambosm(n) anm(n) bm(n)

|t(a,b)t(0,b)|=o(|a|)

y

|t(a,b)t(a,0)|=o(|b|).

Para la desigualdad del triángulo afirmac>0

c=|tn(c,c)tn(0,0)||tn(c,c)tn(c,0)|+|tn(c,0)tn(0,0)|=o(c)+o(c)<c/2+c/2=c

La estricta desigualdad en la penúltima línea está asegurada para suficientemente grande . La contradicción que implica, , pruebanc<cε1/2.


Referencias

EL Lehmann, Teoría de la estimación puntual . John Wiley 1983.

En el texto (capítulo 3, sección 1) y una nota al pie que acompaña a Lehmann, escribe

Un estimador que satisfaga para todo se llamará equivalente ...δ(X1+a,,Xn+a)=δ(X1,,Xn)+aa

Algunos autores llaman a tales estimadores "invariantes". Como esto sugiere que el estimador permanece sin cambios bajo , parece preferible reservar ese término para funciones que satisfacen para todo .u ( x + a ) = u ( x ) x , aXi=Xi+au(x+a)=u(x)x,a


1
Sí, me puse en contacto ayer con el autor principal del libro con la misma pregunta sobre la definición real de invariancia utilizada (busqué en el índice y no pude encontrarlo explícito en el libro). He votado porque creo que tu respuesta es la correcta, pero le daré al autor un par de días para estar seguro antes de aceptarla.
user603

1
No recibí una respuesta del autor, pero los argumentos presentados anteriormente (en la respuesta y el comentario) me convencieron de que esta debe ser la interpretación correcta del problema.
user603
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.