¿Existe un límite inverso de Chernoff que limita que la probabilidad de la cola sea al menos tanto?
es decir, si son variables aleatorias binomiales independientes y . Entonces, ¿podemos probar para alguna función .
¿Existe un límite inverso de Chernoff que limita que la probabilidad de la cola sea al menos tanto?
es decir, si son variables aleatorias binomiales independientes y . Entonces, ¿podemos probar para alguna función .
Respuestas:
Aquí hay una prueba explícita de que un límite estándar de Chernoff está ajustado a factores constantes en el exponente para un rango particular de los parámetros. (En particular, siempre que las variables sean 0 o 1, y 1 con probabilidad 1/2 o menos, y , y el límite superior de Chernoff sea menor que una constante).
Si encuentra un error, hágamelo saber.
Lema 1. (rigidez del límite de Chernoff) Sea el promedio de variables aleatorias independientes 0/1 (rv). Para cualquier y , suponiendo ,
(i) Si cada rv es 1 con probabilidad como máximo , entonces
(ii) Si cada rv es 1 con probabilidad al menos , entonces
Prueba. Utilizamos la siguiente observación:
Reclamación 1. Si , entonces ( k
Prueba de reclamación 1. Por aproximación de Stirling, wherelambda∈[1/(12i+1),1/12i].
Por lo tanto, , que es , es al menos QED k!ó1
Prueba de Lema 1 Parte (i). Sin pérdida de generalidad, suponga que cada variable aleatoria 0/1 en la suma es 1 con probabilidad exactamente . Nota es igual a la suma , y .p Pr [ X ≤ ( 1 - ϵ ) p ] ∑ ⌊ ( 1 - ϵ ) p k ⌋ i = 0 Pr [ X = i / k ]
Fix . Los términos en la suma están aumentando, por lo que los términos con índice tienen cada uno un valor de al menos , por lo que su suma tiene un valor total de al menos . Para completar la prueba, mostramos que i ≥ ℓ Pr [ X = ℓ / k ] ( ϵ p k - 2 ) Pr [ X = ℓ / k ] ( ϵ p k - 2 ) Pr [ X = ℓ / k ] ≥ exp ( - 9 ϵ
Los supuestos y dan , por lo que el lado izquierdo de arriba es al menos . Usando la Reclamación 1, para enlazar , esto es a su vez al menos donde y ε ≤ 1 / 2 ε p k ≥ 6 2(k AA = 2 B= ( k
Para finalizar, mostramos y .B ≥ exp ( - 8 ϵ 2 p k )
Reclamación 2.
Prueba de la Reclamación 2. Los supuestos y implican (i) .ε ≤ 1 / 2 p k ≥ 12
Por definición, . Por (i), . Por lo tanto, (ii) .p k ≥ 12 ℓ
Sustituyendo el lado derecho de (ii) por en obtiene (iii) .A A ≥ 2
La suposición, , implica , que con (iii) da (iv) .ϵ √ A≥ 2
De se deduce que (v) .exp ( - ϵ 2 p k ) ≤ exp ( - 3 ) ≤ 0.04
(iv) y (v) juntos dan la reclamación. QED
Reclamación 3. .
Prueba de reclamación 3.
Arregle modo que .
La elección de implica , por lo que la reclamación se mantendrá siempre que . Tomando cada lado de esta última desigualdad al poder y simplificando, es equivalente a
Sustituyendo y simplificando, es equivalente a
ℓ = ( 1 - δ ) p k ℓ δ ≤ 2 ϵ B ≥ exp ( - 2 δ 2 p k ) - 1 / ℓ ℓ
ℓ=(1-δ)pk(1-δ)(1+δp
Las reivindicaciones 2 y 3 implican . Esto implica parte (i) del lema.
Prueba de Lema 1 Parte (ii). Sin pérdida de generalidad, suponga que cada variable aleatoria es con probabilidad exactamente .p
Nota . Fix .ℓ = ⌈ ( 1 + 2 ε ) p k ⌉ - 1
Los últimos términos en la suma total al menos , que es al menos . (La prueba de eso es la misma que para (i), excepto con reemplazado por y reemplazado por tal que .) QED
El teorema de Berry-Esseen puede dar límites más bajos de probabilidad de cola, siempre que sean más altos que .
Otra herramienta que puede usar es la desigualdad de Paley-Zygmund . Implica que para cualquier número entero , y cualquier variable aleatoria valor real ,
Junto con el teorema multinomial, para una suma de variables aleatorias de rademacher Paley-Zygmund puede obtener límites inferiores bastante fuertes. También funciona con variables aleatorias de independencia limitada. Por ejemplo, puede obtener fácilmente que la suma de variables aleatorias independientes independientes en es con probabilidad constante.
Si está de acuerdo con las sumas limitantes de los ensayos de Bernoulli (y no, por ejemplo, las variables aleatorias limitadas), lo siguiente es bastante estricto.
Desigualdad de lodo *. Deje que sea iid se basa en un rv de Bernoulli con , y deje que se proporcione el entero . Si (a) y , o (b) , entonces donde es el cdf de una norma normal.
(Tratando el argumento de como transformando el estándar normal, esto concuerda exactamente con lo que el CLT le dice; de hecho, nos dice que los binomios que satisfagan las condiciones del teorema dominarán sus gaussianos correspondientes en las colas superiores).
Desde aquí, puede usar límites en para obtener algo mejor. Por ejemplo, en el primer libro de Feller, en la sección sobre gaussianos, se muestra para cada que donde es la densidad de una normal estándar. Hay límites similares en el artículo de Wikipedia para "Q-function" también.
Aparte de eso, y lo que otras personas han dicho, también puede intentar usar el Binomial directamente, tal vez con un poco de Stirling.
(*) Algunas declaraciones más recientes de la desigualdad de Slud omiten algunas de estas condiciones; He reproducido el del papel de Slud.
El teorema de Moivre-Laplace muestra que variables como, después de ser adecuadamente normalizado y bajo ciertas condiciones, convergerá en distribución a una distribución normal. Eso es suficiente si quieres límites inferiores constantes.
Para límites inferiores como , necesita una herramienta ligeramente más fina. Aquí hay una referencia que conozco (pero solo por accidente, nunca tuve la oportunidad de usar esa desigualdad). Algunos límites inferiores explícitos en las probabilidades de cola de las distribuciones binomiales se dan como Teorema 1.5, el libro Gráficos aleatorios de Béla Bollobás, Cambridge, segunda edición, donde se dan más referencias a Una introducción a la probabilidad y sus aplicaciones por Feller y Fundamentos de probabilidad por Rényi.
El teorema generalizado de Littlewood-Offord no es exactamente lo que quiere, pero da lo que yo considero un "Chernoff inverso" limitado al mostrar que la suma de variables aleatorias es poco probable que se encuentre dentro de un rango pequeño alrededor de un valor en particular (incluyendo la expectativa). Quizás sea útil.
Formalmente, el teorema es el siguiente.
Teorema generalizado de Littlewood-Offord : Sea y números reales tales que para y deje que sean variables aleatorias independientes que tengan valores cero y uno. Para , suponga que para todo . Entonces, para cualquier , Donde es una constante que depende solo de .
El exponente en el límite estándar de Chernoff como se establece en Wikipedia es ajustado para variables aleatorias con valor 0/1. Deje que y que sean una secuencia de variables aleatorias independientes tales que para cada , y . Luego, por cada ,
Aquí, , que es la divergencia Kullback-Leibler entre el azar de Bernoulli variables con parámetros e .
Como se mencionó, el límite superior en la desigualdad anterior se demuestra en Wikipedia ( https://en.wikipedia.org/wiki/Chernoff_bound ) bajo el nombre "Teorema de Chernoff-Hoeffding, forma aditiva". El límite inferior se puede probar utilizando, por ejemplo, el "método de tipos". Ver Lema II.2 en [1]. Además, esto está cubierto en el libro de texto clásico sobre teoría de la información de Cover y Thomas.
[1] Imre Csiszár: El método de los tipos. IEEE Transactions on Information Theory (1998). http://dx.doi.org/10.1109/18.720546