WIP: trabajo en progreso
Siguiendo p. 370 de los métodos matemáticos de estadística de Cramer de 1946 , definenAquí es la función de distribución acumulativa de la distribución normal estándar, . Como consecuencia de su definición, tenemos la garantía de que casi seguro.Ξn=n(1−Φ(Zn)).
ΦN(0,1)0≤Ξn≤n
Considere una realización dada de nuestro espacio muestral. Entonces, en este sentido, es una función de y , y una función de y . Para un fijo , podemos considerar una función determinista de , y una función determinista de y , lo que simplifica el problema. Nuestro objetivo es mostrar resultados que se mantengan para casi todosω∈ΩZnnωΞnZn,nωωZnnΞnZnnω∈Ω, lo que nos permite transferir nuestros resultados de un análisis no determinista a la configuración no determinista.
Siguiendo p. 374 de los métodos matemáticos de estadística de Cramer de 1946 , supongo por el momento (pretendo volver y proporcionar una prueba más adelante) que podemos demostrar que (para cualquier ) se cumple la siguiente expansión asintótica (usando integración por partes y la definición de ):ω∈ΩΦ
2π−−√nΞn=1Zne−Z2n2(1+O(1Z2n)) as Zn→∞.(~)
Claramente tenemos que para cualquier , y es casi seguramente una función creciente de como , por lo tanto, reclamamos en lo que sigue a continuación para (casi seguramente todo) fijo :Zn+1≥ZnnZnnn→∞ωZn→∞⟺n→∞.
Por lo tanto, se deduce que tenemos (donde denota equivalencia asintótica ):∼
2π−−√nΞn∼1Zne−1Z2n as Zn→∞n→∞.
La forma en que procedemos en lo que sigue equivale esencialmente al método de equilibrio dominante , y nuestras manipulaciones estarán formalmente justificadas por el siguiente lema:
Lema: Suponga que como , y (por lo tanto, ). Luego, dada cualquier función que se forme a través de composiciones, adiciones y multiplicaciones de logaritmos y leyes de potencia (esencialmente cualquier función " polylog "), también debemos tener eso como :En otras palabras, tales funciones "polylog" preservan la equivalencia asintótica .f(n)∼g(n)n→∞f(n)→∞g(n)→∞hn→∞h(f(n))∼h(g(n)).
La verdad de este lema es una consecuencia del teorema 2.1. como está escrito aquí . Tenga en cuenta también que lo que sigue es principalmente una versión ampliada (más detalles) de la respuesta a una pregunta similar que se encuentra aquí .
Tomando logaritmos de ambos lados, obtenemos que:
log(2π−−√Ξn)−logn∼−logZn−Z2n2.(1)
Aquí es donde Cramer es algo cauteloso; él solo dice "suponiendo que está limitado", podemos concluir bla, bla, bla. Pero demostrar que está adecuadamente limitado parece casi seguro que en realidad no es trivial. Parece que la prueba de esto puede ser esencialmente parte de lo que se discute en las páginas 265-267 de Galambos, pero no estoy seguro dado que todavía estoy trabajando para comprender el contenido de ese libro.ΞnΞn
De todos modos, suponiendo que uno pueda mostrar quelogΞn=o(logn) , entonces se sigue (ya que el término domina el término ) que:−Z2n/2−logZn
−logn∼−Z2n2⟹Zn∼2logn−−−−−√.
Esto es algo bueno, ya que es la mayor parte de lo que queremos mostrar, aunque nuevamente vale la pena señalar que esencialmente solo está pateando la lata en el camino, ya que ahora tenemos que mostrar cierta certeza casi segura de . Por otro lado, tiene la misma distribución para cualquier máximo de variables aleatorias continuas iid, por lo que esto puede ser manejable.ΞnΞn
De todos modos, si as, entonces claramente también se puede concluir que para cualquier que es como . Usando nuestro lema sobre las funciones polylog que preservan la equivalencia asintótica anterior, podemos sustituir esta expresión nuevamente en para obtener:Zn∼2logn−−−−−√Zn∼2logn−−−−−√(1+α(n))α(n)o(1)n→∞(1)
log(2π−−√Ξn)−logn∼−log(1+α)−12log2−12loglogn−logn−2αlogn−α2logn.
⟹−log(Ξn2π−−√)∼log(1+α)+12log2+12loglogn+2αlogn+α2logn.
Aquí tenemos que ir aún más lejos y asumir que casi con seguridadlogΞn=o(loglogn) as n→∞ . Nuevamente, todo lo que dice Cramer es "suponiendo que está acotado". Pero como todo lo que se puede decir a priori sobre es que as, no parece claro que uno deba tener casi con certeza, lo que parece ser la sustancia del reclamo de Cramer.ΞnΞn0≤Xin≤nΞn=O(1)
Pero de todos modos, suponiendo que uno crea eso, se deduce que el término dominante que no contiene es . Como , se deduce que , y claramente , por lo que el término dominante que contiene es . Por lo tanto, podemos reorganizar y (dividiendo todo por o ) encontramos queα12loglognα=o(1)α2=o(α)log(1+α)=o(α)=o(o(αlogn))α2αlogn12loglogn2αlogn
−12loglogn∼2αlogn⟹α∼−loglogn4logn.
Por lo tanto, sustituyendo esto nuevamente en lo anterior, obtenemos que:
Zn∼2logn−−−−−√−loglogn22logn−−−−−√,
de nuevo, suponiendo que creamos ciertas cosas sobre .Ξn
Repetimos la misma técnica nuevamente; dado que , también se deduce queZn∼2logn−−−−−√−loglogn22logn√
Zn∼2logn−−−−−√−loglogn22logn−−−−−√(1+β(n))=2logn−−−−−√(1−loglogn8logn(1+β(n))),
cuando . Simplifiquemos un poco antes de volver a sustituirlo directamente en (1); obtenemos que:β(n)=o(1)
logZn∼log(2logn−−−−−√)+log(1−loglogn8logn(1+β(n)))log(O(1))=o(logn)∼log(2logn−−−−−√).
Z2n2∼logn−12loglogn(1+β)+(loglogn)28logn(1β)2o((1+β)loglogn)∼logn−12(1+β)loglogn.
Sustituyendo esto de nuevo en (1), encontramos que:
log(2π−−√Ξn)−logn∼−log(2logn−−−−−√)−logn+12(1+β)loglogn⟹β∼log(4πΞ2n)loglogn.
Por lo tanto, concluimos que casi seguramente
Zn∼2logn−−−−−√−loglogn22logn−−−−−√(1+log(4π)+2log(Ξn)loglogn)=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√.
Esto corresponde al resultado final en la p.374 de los Métodos matemáticos de estadística de Cramer de 1946, excepto que aquí no se da el orden exacto del término de error. Aparentemente, aplicar este término más da el orden exacto del término de error, pero de todos modos no parece necesario probar los resultados sobre los máximos de las normales estándar iid en las que estamos interesados.
Dado el resultado de lo anterior, es decir que casi con seguridad:
Zn∼2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√⟹Zn=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√+o(1).(†)
2. Luego, por linealidad de expectativa se deduce que:
EZn=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−E[log(Ξn)]2logn−−−−−√+o(1)⟹EZn2logn−−−−−√=1−E[logΞn]2logn+o(1).
Por lo tanto, hemos demostrado que
limn→∞EZn2logn−−−−−√=1,
siempre y cuando también podamos demostrar que
E[logΞn]=o(logn).
Esto podría no ser demasiado difícil de mostrar ya que nuevamente tiene la misma distribución para cada variable aleatoria continua. Así tenemos el segundo resultado de arriba.Ξn
1. Del mismo modo, también tenemos de lo anterior que casi seguramente:
Zn2logn−−−−−√=1−log(Ξn)2logn+o(1),.
Por lo tanto, si podemos demostrar que:
log(Ξn)=o(logn) almost surely,(*)
entonces habremos mostrado el primer resultado de arriba. El resultado (*) también implicaría claramente un fortiori que , por lo que también nos da el primer resultado de arriba.E[log(Ξn)]=o(logn)
También tenga en cuenta que en la prueba anterior de ( ) teníamos que suponer de todos modos que casi con seguridad (o al menos algo similar), de modo que si podemos mostrar ( ) entonces lo más probable es que también tengamos en el proceso necesario para mostrar casi con seguridad, y por lo tanto si podemos probar lo más probable es que podamos llegar inmediatamente a las siguientes conclusiones.†Ξn=o(logn)†Ξn=o(logn)(†)
3. Sin embargo, si tenemos este resultado, entonces no entiendo cómo uno también tendría que , ya que . Pero al menos parece ser cierto queEZn=2logn−−−−−√+Θ(1)o(1)≠Θ(1)EZn=2logn−−−−−√+O(1).
Entonces parece que podemos concentrarnos en responder la pregunta de cómo mostrar queΞn=o(logn) almost surely.
También tendremos que hacer el trabajo duro de proporcionar una prueba de (~), pero que yo sepa, eso es solo cálculo y no implica ninguna teoría de probabilidad, aunque todavía tengo que sentarme y probarlo.
Primero repasemos una cadena de trivialidades para reformular el problema de una manera que sea más fácil de resolver (tenga en cuenta que, por definición, ):Ξn≥0
Ξn=o(logn)⟺limn→∞Ξnlogn=0⟺∀ε>0,Ξnlogn>ε only finitely many times⟺∀ε>0,Ξn>εlogn only finitely many times.
Uno también tiene eso:
Ξn>εlogn⟺n(1−F(Zn))>εlogn⟺1−F(Zn)>εlognn⟺F(Zn)<1−εlognn⟺Zn≤inf{y:F(y)≥1−εlognn}.
En consecuencia, defina para todos :n
u(ε)n=inf{y:F(y)≥1−εlognn}.
Por lo tanto, los pasos anteriores nos muestran que:
Ξn=o(logn) a.s.⟺P(Ξn=o(logn))=1⟺P(∀ε>0,Ξn>εlogn only finitely many times)=1⟺P(∀ε>0,Zn≤u(ε)n only finitely many times)=1⟺P(∀ε>0,Zn≤u(ε)n infinitely often)=0.
Tenga en cuenta que podemos escribir:
{∀ε>0,Zn≤u(ε)n infinitely often}=⋂ε>0{Zn≤u(ε)n infinitely often}.
Las secuencias vuelven uniformemente más grandes a medida que disminuye, por lo que podemos concluir que los eventos están disminuyendo (o al menos de alguna manera monotónica) como va a . Por lo tanto, el axioma de probabilidad con respecto a las secuencias monotónicas de eventos nos permite concluir que:u(ε)nε{Zn≤u(ε)n infinitely often}
ε0
P(∀ε>0,Zn≤u(ε)n infinitely often)=P(⋂ε>0{Zn≤u(ε)n infinitely often})=P(limε↓0{Zn≤u(ε)n infinitely often})=limε↓0P(Zn≤u(ε)n infinitely often).
Por lo tanto, es suficiente mostrar que para todo ,ε>0
P(Zn≤u(ε)n infinitely often)=0
porque, por supuesto, el límite de cualquier secuencia constante es la constante.
Aquí hay una especie de mazo:
Teorema 4.3.1., P. 252 de Galambos, The Asymptotic Theory of Extreme Order Statistics , 2nd edition. Supongamos que son variables iid con una función común de distribución no degenerada y continua , y que sea una secuencia no decreciente de modo que tampoco disminuya. Entonces, para ,
según
X1,X2,…F(x)unn(1−F(un))un<sup{x:F(x)<1}P(Zn≤un infinitely often)=0 or 1
∑j=1+∞[1−F(uj)]exp(−j[1−F(uj)])<+∞ or =+∞.
La prueba es técnica y toma alrededor de cinco páginas, pero finalmente resulta ser un corolario de uno de los lemas de Borel-Cantelli. Puedo intentar condensar la prueba para usar solo la parte requerida para este análisis, así como solo las suposiciones que se mantienen en el caso gaussiano, que pueden ser más cortas (pero tal vez no) y escribirlas aquí, pero no se recomienda contener la respiración. Tenga en cuenta que en este caso , por lo que la condición es vacía, y es por lo tanto, claramente no disminuye.ω(F)=+∞n(1−F(n))εlogn
De todos modos, el punto es que, apelando a este teorema, si podemos demostrar que:
∑j=1+∞[1−F(u(ε)j)]exp(−j[1−F(u(ε)j)])=∑j=1+∞[εlogjj]exp(−εlogj)=ε∑j=1+∞logjj1+ε<+∞.
Tenga en cuenta que dado que el crecimiento logarítmico es más lento que cualquier crecimiento de la ley de potencia para cualquier exponente positivo de la ley de potencia (los logaritmos y los exponenciales preservan la monotonicidad, entonces y siempre se puede ver que la desigualdad anterior es válida para todos los suficientemente grandes debido al hecho de que y un cambio de variables), tenemos que:loglogn≤αlogn⟺logn≤nαnlogn≤n
∑j=1+∞logjj1+ε≤∑j=1+∞jε/2j1+ε=∑j=1+∞1j1+ε/2<+∞,
dado que se sabe que la serie p converge para todos los , y por supuesto, implica .p>1ε>01+ε/2>1
Así, utilizando el teorema anterior, hemos demostrado que para todo , , que recapitular debería significar que casi seguro.ε>0P(Zn≤u(ε)n i.o.)=0Ξn=o(logn)
Necesitamos mostrar todavía que . Esto no se deduce de lo anterior, ya que, por ejemplo,logΞn=o(loglogn)
1nlogn=o(logn),−logn+loglogn≠o(logn).
Sin embargo, dada una secuencia , si se puede mostrar que para arbitraria , entonces se sigue que . Idealmente, me gustaría poder mostrar esto para usando el lema anterior (suponiendo que sea incluso cierto), pero no puedo (hasta el momento).xnxn=o((logn)δ)δ>0log(xn)=o(loglogn)Ξn