Nosotros sabemos (por ahora unos 40 años, gracias a Adleman, Bennet y Gill) que la inclusión BPP P / poli, y un aún más fuerte BPP / poli P / retención poli. El "/ poly" significa que trabajamos de manera no uniforme (un circuito separado para cada longitud de entrada ), mientras que P sin este "/ poly" significa que tenemos una máquina Turing para todas las longitudes de entrada posibles , incluso más que, digamos, = el número de segundos para el próximo "Big Bang".
Pregunta 1: ¿Qué novedades aportaría una prueba (o prueba) de BPP = P a nuestro conocimiento después de conocer BPP P / poly?
Bajo "nuevo" me refiero a cualquier consecuencia realmente sorprendente, como el colapso / separación de otras clases de complejidad. Compare esto con las consecuencias que ofrecería la prueba / prueba de NP P / poly.
[AGREGADO 08.10.2017]: Una consecuencia realmente sorprendente de BPP P sería que, como lo demuestran Impagliazzo y Wigderson , todos los problemas (!) En E = DTIME tendrían circuitos de tamaño . Gracias a Ryan por recordar este resultado.
Pregunta 2: ¿Por qué no podemos probar BPP = P en líneas similares a la prueba de BPP / poly P / poly?
Un obstáculo "obvio" es el problema del dominio finito frente al infinito: los circuitos booleanos funcionan sobre dominios finitos , mientras que las máquinas de Turing trabajan sobre un conjunto completo de - cadenas de cualquier longitud. Entonces, para desrandomizar los circuitos booleanos probabilísticos, es suficiente tomar la mayoría de las copias independientes de un circuito probabilístico y aplicar la desigualdad de Chernoff, junto con el límite de la unión. Por supuesto, en dominios infinitos , esta regla de mayoría simple no funcionará.
¿Pero es este (dominio infinito) un verdadero "obstáculo"? Al utilizar los resultados de la teoría del aprendizaje estadístico (dimensión VC), ya podemos demostrar que BPP / poly P / poly se mantiene también para los circuitos que trabajan sobre dominios infinitos , como los circuitos aritméticos (que trabajan sobre todos los números reales); véase, por ejemplo, este documento de Cucker en al. Cuando se usa un enfoque similar, todo lo que necesitaríamos es mostrar que la dimensión VC de las máquinas de Turing de poli-tiempo no puede ser demasiado grande. ¿Alguien ha visto algún intento de dar este último paso?
NOTA [agregado el 07.10.2017]: en el contexto de la desrandomización, la dimensión VC de una clase de funciones se define como el número máximo para el que hay funciones en tales que para cada hay un punto con si y sólo si . Es decir, no destruimos los conjuntos de puntos a través de funciones, sino conjuntos de funciones a través de puntos. (Las dos definiciones resultantes de la dimensión VC están relacionadas, pero exponencialmente).f : X → Y v f 1 , ... , f v F S ⊆ { 1 , ... , v } ( x , y ) ∈ X × Y f i ( x ) = y i ∈ S
Los resultados (conocidos como convergencia uniforme en probabilidad ) implican lo siguiente: si para cada entrada , una función elegida al azar f ∈ F (bajo alguna distribución de probabilidad en F ) satisface P r o b { f ( x ) = f ( x ) } ≥ 1 / 2 + c para una constante c > 0 , entonces f ( x ) se puede calcular en todoentradas como una mayoría de algunos m = O ( v ) (fijo) funciones de F . Ver, por ejemplo, Corolario 2 en el artículo de Haussler . [Para que esto se cumpla, hay algunas condiciones leves de mensurabilidad en F ].
Por ejemplo, si es el conjunto de todos los polinomios f : R n → R computable por circuitos aritméticos de tamaño ≤ s , entonces todos los polinomios en F tienen un grado como máximo D = 2 s . Mediante el uso de límites superiores conocidos en el número de patrones cero de polinomios (véase, por ejemplo, este documento ), se puede demostrar que la dimensión VC de F es O ( n log D ) = O ( n s ) . Esto implica la inclusión BPP / poly P/ poli para circuitos aritméticos.