¿Por qué el supremum del puente browniano tiene la distribución Kolmogorov-Smirnov?


16

La distribución de Kolmogorov-Smirnov se conoce por la prueba de Kolmogorov-Smirnov . Sin embargo, también es la distribución del supremum del puente browniano.

Como esto está lejos de ser obvio (para mí), me gustaría pedirle una explicación intuitiva de esta coincidencia. Las referencias también son bienvenidas.


@GaBorgulya: ¿Qué cambiaste?
Rasmus

Mira aquí y aquí .
cardenal

Respuestas:


13

nsupx|FnF|=supx|1ni=1nZi(x)|

donde Zi(x)=1XixE[1Xix]

por CLT tienes Gn=1ni=1nZi(x)N(0,F(x)(1F(x)))

esta es la intuición ...

el puente browniano tiene una varianza t ( 1 - t ) http://en.wikipedia.org/wiki/Brownian_bridge reemplaza t por F ( x ) . Esto es para una x ...B(t)t(1t) tF(x)x

También debe verificar la covarianza y, por lo tanto, aún es fácil mostrar (CLT) que para ( ) ( G n ( x 1 ) , ... , G n ( x k ) ) ( B 1 , ... , B k ) donde ( B 1 , ... , B k ) es N ( 0 , Σ ) conx1,,xk(Gn(x1),,Gn(xk))(B1,,Bk)(B1,,Bk)N(0,Σ) , σ i j = min ( F ( x i ) , F ( x j ) ) - F ( x i ) F ( x j ) . Σ=(σij)σij=min(F(xi),F(xj))F(xi)F(xj)

La parte difícil es demostrar que la distribución del suppremum del límite es el supremum de la distribución del límite ... Comprender por qué sucede esto requiere cierta teoría empírica del proceso, leer libros como Van der Waart y Welner (no es fácil) . El nombre del teorema es Donsker Theorem http://en.wikipedia.org/wiki/Donsker%27s_theorem ...


¿No deberíamos aplicar el CLT a todas las distribuciones marginales de dimensión finita?
Rasmus

pediste una respuesta intuitiva :) también elijo no molestarte con la parte matemática complicada que es mostrar que la convergencia para todo t implica la convergencia (en la ley) del supremum ... ¿quieres que complete el responder ?
robin girard

Estimado robin girard, creo que su respuesta está bien tal como está. ¡Gracias!
Rasmus

1
La parte difícil en realidad es mostrar una convergencia débil. La convergencia de supremums se sigue directamente del teorema de mapeo continuo. Este resultado se puede encontrar en "Convergencia de medidas de probabilidad" de Billingsley. Van der Vaart y Wellner dan un resultado más general y su libro es muy, muy duro :)
mpiktas

@robingirard Personalmente me encantaría ver una "respuesta completa" con todas las "partes matemáticas difíciles"
StatsPlease

6

Para Kolmogorov-Smirnov, considere la hipótesis nula. Dice que una muestra se extrae de una distribución particular. Entonces, si construye la función de distribución empírica paranorte muestras f(x)=1niχ(,Xi](x), in the limit of infinite data, it will converge to the underlying distribution.

For finite information, it will be off. If one of the measurements is q, then at x=q the empirical distribution function takes a step up. We can look at it as a random walk which is constrained to begin and end on the true distribution function. Once you know that, you go ransack the literature for the huge amount of information known about random walks to find out what the largest expected deviation of such a walk is.

You can do the same trick with any p-norm of the difference between the empirical and underlying distribution functions. For p=2, it's called the Cramer-von Mises test. I don't know the set of all such tests for arbitrary real, positive p form a complete class of any kind, but it might be an interesting thing to look at.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.