¿Cuál es el resultado más poderoso sobre el máximo de iid gaussianos? ¿El más utilizado en la práctica?


9

Dado iid, considere las variables aleatoriasX1,,Xn,N(0,1)

Zn:=max1inXi.

Pregunta: ¿Cuál es el resultado más "importante" sobre estas variables aleatorias?

Para aclarar la "importancia", ¿qué resultado tiene la mayoría de los otros resultados como consecuencia lógica? ¿Cuál de los resultados se usa con más frecuencia en la práctica?

Más específicamente, parece ser conocimiento popular entre los estadísticos (teóricos) que los Zn son "básicamente lo mismo que" 2logn , al menos asintóticamente. (Ver esta pregunta relacionada ).

Sin embargo, hay muchos resultados relacionados de este tipo, y parece ser que la mayoría no son equivalentes, ni se implican entre sí. Por ejemplo ,

(1)Zn2logna.s.1,

que si nada más también implica los resultados correspondientes en probabilidad y distribución.

Sin embargo, ni siquiera implica resultados aparentemente relacionados (ver esta otra pregunta ), como

(2)limnEZn2logn=1,

(este es el ejercicio 2.17 en la p. 49 de ), u otro resultado del folklore :

(3)EZn=2logn+Θ(1).

No asintóticamente, también se sabe que para cada (ver aquí para una prueba),n

(4)clognEZn2logn

para algunos pequeños . También se pueden mostrar resultados similares para, ya que está muy sesgado a la derecha.c|Zn|Zn

La prueba de este último resultado es mucho más directa que las pruebas de los otros resultados. Tenía la esperanza de que el primer resultado asintótico hubiera implicado a todos los demás resultados asintóticos, de modo que pudiera sentirme seguro concentrando todo mi tiempo y energía en comprender ese resultado. Pero, de nuevo, eso aparentemente no es cierto , por lo que ahora no me queda claro en qué debería centrarme.

Véanse las páginas 265-267 de la segunda edición de Galambos, The Asymptotic Theory of Extreme Order Statistics , impreso en 1987. Probablemente también se indique en algún lugar de la primera edición.

Boucheron, Lugosi, Massart, Concentración Desigualdades: una teoría de independencia no asintótica . Aparte: este libro en realidad cita a Galambos para el resultado en cuestión, pero no puedo encontrarlo mencionado en ninguna parte de Galambos, solo el primer resultado que mencioné.


1
¿Sabes que cuando usas \ dots en MathJax el resultado a veces aparece como si hubieras usado \ ldots y a veces como si hubieras usado \ cdots, dependiendo del contexto? Reemplacé \ dots con \ ldots en esta pregunta.
X_1, \dots, X_n, \dots \sim \mathscr{N}(0,1)X1,,Xn,N(0,1)X_1, \ldots, X_n, \ldots \sim \mathscr{N}(0,1)X1,,Xn,N(0,1)
Michael Hardy

@MichaelHardy Oh, pensé que siempre estaba centrado. Gracias por la solución!
Chill2Macht

Respuestas:


4

En cualquier aplicación probabilística, el objeto más fundamental es la distribución, con los momentos y las propiedades limitantes que pueden derivarse de esto. Por lo tanto, el resultado más "importante", en el sentido que ha descrito, es la función de distribución completa (equivalentemente, la función de densidad correspondiente). En la práctica, este resultado de distribución es quizás menos esclarecedor que algunas de las propiedades asintóticas más básicas que ya ha enumerado. Aunque lógicamente implica estos resultados asintóticos, en mi opinión, es probable que esos resultados sean más esclarecedores para comprender la naturaleza cambiante del valor extremo a medida que cambiamos .FZn(z)=Φn(z)n

De su pregunta queda claro que comprende bien las propiedades de valor extremo en el caso de un máximo de variables aleatorias normales estándar de IID. Todas estas propiedades son lógicamente derivables de la función de distribución para , por lo que ese es el objeto más fundamental en este problema. Como en muchos casos, el objeto más fundamental no es necesariamente el más esclarecedor, por lo que probablemente descubra que tiene que conformarse con conocer todos los resultados y saber que iluminan diferentes aspectos del problema.Zn


Gracias por esta respuesta, lo agradezco. ¿Conoces una referencia sobre cómo derivar todas estas propiedades de la función de distribución para ? He tenido dificultades extremas para encontrar algo que explique esto, porque todo es "folklore" o "agarre de la mano". Zn
Chill2Macht

Para el registro, he leído los enlaces y no ayudan. Por eso hice la pregunta.
Chill2Macht

1
No tengo una referencia específica para recomendar, pero creo que estos resultados se derivarían de libros sobre teoría del valor extremo. Le sugiero que comience buscando algunos textos de nivel de posgrado sobre ese tema y vea si puede encontrar las derivaciones allí.
Ben - Restablece a Mónica el

1

WIP: trabajo en progreso

Siguiendo p. 370 de los métodos matemáticos de estadística de Cramer de 1946 , definenAquí es la función de distribución acumulativa de la distribución normal estándar, . Como consecuencia de su definición, tenemos la garantía de que casi seguro.

Ξn=n(1Φ(Zn)).
ΦN(0,1)0Ξnn

Considere una realización dada de nuestro espacio muestral. Entonces, en este sentido, es una función de y , y una función de y . Para un fijo , podemos considerar una función determinista de , y una función determinista de y , lo que simplifica el problema. Nuestro objetivo es mostrar resultados que se mantengan para casi todosωΩZnnωΞnZn,nωωZnnΞnZnnωΩ, lo que nos permite transferir nuestros resultados de un análisis no determinista a la configuración no determinista.

Siguiendo p. 374 de los métodos matemáticos de estadística de Cramer de 1946 , supongo por el momento (pretendo volver y proporcionar una prueba más adelante) que podemos demostrar que (para cualquier ) se cumple la siguiente expansión asintótica (usando integración por partes y la definición de ):ωΩΦ

(~)2πnΞn=1ZneZn22(1+O(1Zn2))  as  Zn.

Claramente tenemos que para cualquier , y es casi seguramente una función creciente de como , por lo tanto, reclamamos en lo que sigue a continuación para (casi seguramente todo) fijo :Zn+1ZnnZnnnω

Znn.

Por lo tanto, se deduce que tenemos (donde denota equivalencia asintótica ):

2πnΞn1Zne1Zn2  as  Znn.

La forma en que procedemos en lo que sigue equivale esencialmente al método de equilibrio dominante , y nuestras manipulaciones estarán formalmente justificadas por el siguiente lema:

Lema: Suponga que como , y (por lo tanto, ). Luego, dada cualquier función que se forme a través de composiciones, adiciones y multiplicaciones de logaritmos y leyes de potencia (esencialmente cualquier función " polylog "), también debemos tener eso como :En otras palabras, tales funciones "polylog" preservan la equivalencia asintótica .f(n)g(n)nf(n)g(n)hn

h(f(n))h(g(n)).

La verdad de este lema es una consecuencia del teorema 2.1. como está escrito aquí . Tenga en cuenta también que lo que sigue es principalmente una versión ampliada (más detalles) de la respuesta a una pregunta similar que se encuentra aquí .

Tomando logaritmos de ambos lados, obtenemos que:

(1)log(2πΞn)lognlogZnZn22.

Aquí es donde Cramer es algo cauteloso; él solo dice "suponiendo que está limitado", podemos concluir bla, bla, bla. Pero demostrar que está adecuadamente limitado parece casi seguro que en realidad no es trivial. Parece que la prueba de esto puede ser esencialmente parte de lo que se discute en las páginas 265-267 de Galambos, pero no estoy seguro dado que todavía estoy trabajando para comprender el contenido de ese libro.ΞnΞn

De todos modos, suponiendo que uno pueda mostrar quelogΞn=o(logn) , entonces se sigue (ya que el término domina el término ) que:Zn2/2logZn

lognZn22Zn2logn.

Esto es algo bueno, ya que es la mayor parte de lo que queremos mostrar, aunque nuevamente vale la pena señalar que esencialmente solo está pateando la lata en el camino, ya que ahora tenemos que mostrar cierta certeza casi segura de . Por otro lado, tiene la misma distribución para cualquier máximo de variables aleatorias continuas iid, por lo que esto puede ser manejable.ΞnΞn

De todos modos, si as, entonces claramente también se puede concluir que para cualquier que es como . Usando nuestro lema sobre las funciones polylog que preservan la equivalencia asintótica anterior, podemos sustituir esta expresión nuevamente en para obtener:Zn2lognZn2logn(1+α(n))α(n)o(1)n(1)

log(2πΞn)lognlog(1+α)12log212loglognlogn2αlognα2logn.

log(Ξn2π)log(1+α)+12log2+12loglogn+2αlogn+α2logn.

Aquí tenemos que ir aún más lejos y asumir que casi con seguridadlogΞn=o(loglogn)  as  n . Nuevamente, todo lo que dice Cramer es "suponiendo que está acotado". Pero como todo lo que se puede decir a priori sobre es que as, no parece claro que uno deba tener casi con certeza, lo que parece ser la sustancia del reclamo de Cramer.ΞnΞn0XinnΞn=O(1)

Pero de todos modos, suponiendo que uno crea eso, se deduce que el término dominante que no contiene es . Como , se deduce que , y claramente , por lo que el término dominante que contiene es . Por lo tanto, podemos reorganizar y (dividiendo todo por o ) encontramos queα12loglognα=o(1)α2=o(α)log(1+α)=o(α)=o(o(αlogn))α2αlogn12loglogn2αlogn

12loglogn2αlognαloglogn4logn.

Por lo tanto, sustituyendo esto nuevamente en lo anterior, obtenemos que:

Zn2lognloglogn22logn,

de nuevo, suponiendo que creamos ciertas cosas sobre .Ξn

Repetimos la misma técnica nuevamente; dado que , también se deduce queZn2lognloglogn22logn

Zn2lognloglogn22logn(1+β(n))=2logn(1loglogn8logn(1+β(n))),

cuando . Simplifiquemos un poco antes de volver a sustituirlo directamente en (1); obtenemos que:β(n)=o(1)

logZnlog(2logn)+log(1loglogn8logn(1+β(n)))log(O(1))=o(logn)log(2logn).

Zn22logn12loglogn(1+β)+(loglogn)28logn(1β)2o((1+β)loglogn)logn12(1+β)loglogn.

Sustituyendo esto de nuevo en (1), encontramos que:

log(2πΞn)lognlog(2logn)logn+12(1+β)loglognβlog(4πΞn2)loglogn.

Por lo tanto, concluimos que casi seguramente

Zn2lognloglogn22logn(1+log(4π)+2log(Ξn)loglogn)=2lognloglogn+log(4π)22lognlog(Ξn)2logn.

Esto corresponde al resultado final en la p.374 de los Métodos matemáticos de estadística de Cramer de 1946, excepto que aquí no se da el orden exacto del término de error. Aparentemente, aplicar este término más da el orden exacto del término de error, pero de todos modos no parece necesario probar los resultados sobre los máximos de las normales estándar iid en las que estamos interesados.


Dado el resultado de lo anterior, es decir que casi con seguridad:

()Zn2lognloglogn+log(4π)22lognlog(Ξn)2lognZn=2lognloglogn+log(4π)22lognlog(Ξn)2logn+o(1).

2. Luego, por linealidad de expectativa se deduce que:

EZn=2lognloglogn+log(4π)22lognE[log(Ξn)]2logn+o(1)EZn2logn=1E[logΞn]2logn+o(1).

Por lo tanto, hemos demostrado que

limnEZn2logn=1,

siempre y cuando también podamos demostrar que

E[logΞn]=o(logn).

Esto podría no ser demasiado difícil de mostrar ya que nuevamente tiene la misma distribución para cada variable aleatoria continua. Así tenemos el segundo resultado de arriba.Ξn

1. Del mismo modo, también tenemos de lo anterior que casi seguramente:

Zn2logn=1log(Ξn)2logn+o(1),.

Por lo tanto, si podemos demostrar que:

(*)log(Ξn)=o(logn) almost surely,

entonces habremos mostrado el primer resultado de arriba. El resultado (*) también implicaría claramente un fortiori que , por lo que también nos da el primer resultado de arriba.E[log(Ξn)]=o(logn)

También tenga en cuenta que en la prueba anterior de ( ) teníamos que suponer de todos modos que casi con seguridad (o al menos algo similar), de modo que si podemos mostrar ( ) entonces lo más probable es que también tengamos en el proceso necesario para mostrar casi con seguridad, y por lo tanto si podemos probar lo más probable es que podamos llegar inmediatamente a las siguientes conclusiones.Ξn=o(logn)Ξn=o(logn)()

3. Sin embargo, si tenemos este resultado, entonces no entiendo cómo uno también tendría que , ya que . Pero al menos parece ser cierto queEZn=2logn+Θ(1)o(1)Θ(1)

EZn=2logn+O(1).


Entonces parece que podemos concentrarnos en responder la pregunta de cómo mostrar que

Ξn=o(logn) almost surely.

También tendremos que hacer el trabajo duro de proporcionar una prueba de (~), pero que yo sepa, eso es solo cálculo y no implica ninguna teoría de probabilidad, aunque todavía tengo que sentarme y probarlo.

Primero repasemos una cadena de trivialidades para reformular el problema de una manera que sea más fácil de resolver (tenga en cuenta que, por definición, ):Ξn0

Ξn=o(logn)limnΞnlogn=0ε>0,Ξnlogn>ε only finitely many timesε>0,Ξn>εlogn only finitely many times.

Uno también tiene eso:

Ξn>εlognn(1F(Zn))>εlogn1F(Zn)>εlognnF(Zn)<1εlognnZninf{y:F(y)1εlognn}.

En consecuencia, defina para todos :n

un(ε)=inf{y:F(y)1εlognn}.

Por lo tanto, los pasos anteriores nos muestran que:

Ξn=o(logn) a.s.P(Ξn=o(logn))=1P(ε>0,Ξn>εlogn only finitely many times)=1P(ε>0,Znun(ε) only finitely many times)=1P(ε>0,Znun(ε) infinitely often)=0.

Tenga en cuenta que podemos escribir:

{ε>0,Znun(ε) infinitely often}=ε>0{Znun(ε) infinitely often}.

Las secuencias vuelven uniformemente más grandes a medida que disminuye, por lo que podemos concluir que los eventos están disminuyendo (o al menos de alguna manera monotónica) como va a . Por lo tanto, el axioma de probabilidad con respecto a las secuencias monotónicas de eventos nos permite concluir que:un(ε)ε

{Znun(ε) infinitely often}
ε0

P(ε>0,Znun(ε) infinitely often)=P(ε>0{Znun(ε) infinitely often})=P(limε0{Znun(ε) infinitely often})=limε0P(Znun(ε) infinitely often).

Por lo tanto, es suficiente mostrar que para todo ,ε>0

P(Znun(ε) infinitely often)=0

porque, por supuesto, el límite de cualquier secuencia constante es la constante.

Aquí hay una especie de mazo:

Teorema 4.3.1., P. 252 de Galambos, The Asymptotic Theory of Extreme Order Statistics , 2nd edition. Supongamos que son variables iid con una función común de distribución no degenerada y continua , y que sea ​​una secuencia no decreciente de modo que tampoco disminuya. Entonces, para , según X1,X2,F(x)unn(1F(un))un<sup{x:F(x)<1}

P(Znun infinitely often)=0 or 1
j=1+[1F(uj)]exp(j[1F(uj)])<+ or =+.

La prueba es técnica y toma alrededor de cinco páginas, pero finalmente resulta ser un corolario de uno de los lemas de Borel-Cantelli. Puedo intentar condensar la prueba para usar solo la parte requerida para este análisis, así como solo las suposiciones que se mantienen en el caso gaussiano, que pueden ser más cortas (pero tal vez no) y escribirlas aquí, pero no se recomienda contener la respiración. Tenga en cuenta que en este caso , por lo que la condición es vacía, y es por lo tanto, claramente no disminuye.ω(F)=+n(1F(n))εlogn

De todos modos, el punto es que, apelando a este teorema, si podemos demostrar que:

j=1+[1F(uj(ε))]exp(j[1F(uj(ε))])=j=1+[εlogjj]exp(εlogj)=εj=1+logjj1+ε<+.

Tenga en cuenta que dado que el crecimiento logarítmico es más lento que cualquier crecimiento de la ley de potencia para cualquier exponente positivo de la ley de potencia (los logaritmos y los exponenciales preservan la monotonicidad, entonces y siempre se puede ver que la desigualdad anterior es válida para todos los suficientemente grandes debido al hecho de que y un cambio de variables), tenemos que:loglognαlognlognnαnlognn

j=1+logjj1+εj=1+jε/2j1+ε=j=1+1j1+ε/2<+,

dado que se sabe que la serie p converge para todos los , y por supuesto, implica .p>1ε>01+ε/2>1

Así, utilizando el teorema anterior, hemos demostrado que para todo , , que recapitular debería significar que casi seguro.ε>0P(Znun(ε) i.o.)=0Ξn=o(logn)

Necesitamos mostrar todavía que . Esto no se deduce de lo anterior, ya que, por ejemplo,logΞn=o(loglogn)

1nlogn=o(logn),logn+loglogno(logn).

Sin embargo, dada una secuencia , si se puede mostrar que para arbitraria , entonces se sigue que . Idealmente, me gustaría poder mostrar esto para usando el lema anterior (suponiendo que sea incluso cierto), pero no puedo (hasta el momento).xnxn=o((logn)δ)δ>0log(xn)=o(loglogn)Ξn

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.