Para ampliar mi comentario en una respuesta: la forma multiplicativa del límite de Chernoff dice que si la expectativa para la suma de variables binarias aleatorias independientes es , entonces la probabilidad de desviarse ' demasiado lejos 'de esa expectativa va como: .X=∑ni=0XiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ
Ahora, imagine un procedimiento en el que, dada una cadena para probar, ejecutamos pruebas de nuestro algoritmo (para que se elija alguna más adelante) y acepte si al menos de esas pruebas aceptan . Podemos usar el límite de Chernoff para encontrar la probabilidad de falla en términos de siguiente manera:σnBPP(0.90,0.95)n0.925nσn
Supongamos que denota el resultado de la ésima prueba y, por lo tanto, el número de pruebas que tienen éxito. Podemos suponer conservadoramente que nuestra probabilidad de falsos positivos es de ; Esto significa que si hacemos pruebas independientes en una cadena , el número esperado de éxitos es . (Tenga en cuenta que una probabilidad de falso positivo menor que conducirá a un valor esperado aún más bajo y, por lo tanto, a límites aún más estrictos en las estimaciones por venir.) Ahora, veamos la probabilidad de que tengamos más de falsos positivos (es decir , que ). Nosotros tomamosXiiX=∑Xi.9nσ∉Lμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)−1=136 ; luego y así tenemos .(eδ(1+δ)(1+δ))≈.99961<29993000Pr(X>0.925n)<(29993000)0.9n
A partir de aquí, debería quedar claro que al tomar suficientemente grande podemos reducir esta probabilidad a . Por lo tanto, para esta suficientemente grande , si aceptamos la cadena solo si el número de pruebas exitosas en es mayor que , entonces nuestra probabilidad de aceptar una cadena cae por debajo de . Tenga en cuenta que esta es constante , no depende del tamaño de nuestro problema; ya que estamos ejecutando nuestro polinomialn<13nσσ.925nσ∉L13nBPP(0.9,0.95)algoritmo un número constante de veces, el tiempo total de ejecución de nuestro nuevo procedimiento sigue siendo polinomial. Un análisis similar en la otra dirección mostrará que la probabilidad de un 'falso negativo' (que para una cadena que está en nuestro idioma) estará acotada por para alguna , y así nuevamente podemos tomar suficientemente grande como para limitar la probabilidad de un falso negativo por (o, en otras palabras, para garantizar al menos probabilidad de aceptar en una cadena ) Esto muestra queX<.925ncncn1323σ∈LBPP(.9,.95)⊆BPP(13,23)≡BPP, y el comentario de Yuval muestra cómo probar la equivalencia inversa a través de un procedimiento similar.
Canonicamente, esto se conoce como amplificación de probabilidad y es un método inmensamente útil para tratar con clases probabilísticas. Las constantes específicas son menos importantes, obviamente, entonces el hecho de que el límite de Chernoff nos permite vincular nuestras probabilidades de 'resultado falso' por alguna función exponencial del número de ensayos, por lo que pueden hacerse arbitrariamente pequeños con solo un número modesto de ensayos.