¿Es BPP vs. P un problema real después de saber que BPP se encuentra en P / poli?


16

Nosotros sabemos (por ahora unos 40 años, gracias a Adleman, Bennet y Gill) que la inclusión BPP P / poli, y un aún más fuerte BPP / poli P / retención poli. El "/ poly" significa que trabajamos de manera no uniforme (un circuito separado para cada longitud de entrada n ), mientras que P sin este "/ poly" significa que tenemos una máquina Turing para todas las longitudes de entrada posibles n , incluso más que, digamos, n = el número de segundos para el próximo "Big Bang".

Pregunta 1: ¿Qué novedades aportaría una prueba (o prueba) de BPP = P a nuestro conocimiento después de conocer BPP P / poly?

Bajo "nuevo" me refiero a cualquier consecuencia realmente sorprendente, como el colapso / separación de otras clases de complejidad. Compare esto con las consecuencias que ofrecería la prueba / prueba de NP P / poly.

[AGREGADO 08.10.2017]: Una consecuencia realmente sorprendente de BPP P sería que, como lo demuestran Impagliazzo y Wigderson , todos los problemas (!) En E = DTIME tendrían circuitos de tamaño . Gracias a Ryan por recordar este resultado.[2O(n)]2o(n)

Pregunta 2: ¿Por qué no podemos probar BPP = P en líneas similares a la prueba de BPP / poly P / poly?

Un obstáculo "obvio" es el problema del dominio finito frente al infinito: los circuitos booleanos funcionan sobre dominios finitos , mientras que las máquinas de Turing trabajan sobre un conjunto completo de - cadenas de cualquier longitud. Entonces, para desrandomizar los circuitos booleanos probabilísticos, es suficiente tomar la mayoría de las copias independientes de un circuito probabilístico y aplicar la desigualdad de Chernoff, junto con el límite de la unión. Por supuesto, en dominios infinitos , esta regla de mayoría simple no funcionará. {0,1}01

¿Pero es este (dominio infinito) un verdadero "obstáculo"? Al utilizar los resultados de la teoría del aprendizaje estadístico (dimensión VC), ya podemos demostrar que BPP / poly P / poly se mantiene también para los circuitos que trabajan sobre dominios infinitos , como los circuitos aritméticos (que trabajan sobre todos los números reales); véase, por ejemplo, este documento de Cucker en al. Cuando se usa un enfoque similar, todo lo que necesitaríamos es mostrar que la dimensión VC de las máquinas de Turing de poli-tiempo no puede ser demasiado grande. ¿Alguien ha visto algún intento de dar este último paso?


NOTA [agregado el 07.10.2017]: en el contexto de la desrandomización, la dimensión VC de una clase de funciones se define como el número máximo para el que hay funciones en tales que para cada hay un punto con si y sólo si . Es decir, no destruimos los conjuntos de puntos a través de funciones, sino conjuntos de funciones a través de puntos. (Las dos definiciones resultantes de la dimensión VC están relacionadas, pero exponencialmente).f : X Y v f 1 , ... , f v F S { 1 , ... , v } ( x , y ) X × Y f i ( x ) = y i SFf:XYvf1,,fvFS{1,,v}(x,y)X×Yfi(x)=yiS

Los resultados (conocidos como convergencia uniforme en probabilidad ) implican lo siguiente: si para cada entrada , una función elegida al azar fF (bajo alguna distribución de probabilidad en F ) satisface P r o b { f ( x ) = f ( x ) } 1 / 2 + c para una constante c > 0 , entonces f ( x ) se puede calcular en todoxXfFFProb{f(x)=f(x)}1/2+cc>0f(x)entradas como una mayoría de algunos m = O ( v ) (fijo) funciones de F . Ver, por ejemplo, Corolario 2 en el artículo de Haussler . [Para que esto se cumpla, hay algunas condiciones leves de mensurabilidad en F ]. xXm=O(v)FF

Por ejemplo, si es el conjunto de todos los polinomios f : R nR computable por circuitos aritméticos de tamaño s , entonces todos los polinomios en F tienen un grado como máximo D = 2 s . Mediante el uso de límites superiores conocidos en el número de patrones cero de polinomios (véase, por ejemplo, este documento ), se puede demostrar que la dimensión VC de F es O ( n log D ) = O ( n s ) . Esto implica la inclusión BPP / polyFf:RnRsFD=2sFO(nlogD)=O(ns) P/ poli para circuitos aritméticos.


3
Con respecto a la P1: una prueba de impermeabilización mostraría circuitos sorprendentemente pequeños para cada problema solucionable en 2 ^ (O (n)) tiempo, por Impagliazzo-Wigderson (¿como probablemente sabrá?)
Ryan Williams

1
Estoy confundido por Q2. Parece obvio que la dimensión VC de un poly-time TM es infinita. Es decir, para cualquier conjunto finito y cualquier S X existe una TM polytime que acepta los elementos de S y rechaza los elementos de X S . La clave es que X es finito, por lo que la restricción polytime es básicamente irrelevante. X{0,1}SXSXSX
Sasho Nikolov

1
Re Q2, la inclusión realmente no tiene mucho que ver con la clase de complejidad y el poder computacional, creo que se trata de la cantidad de bits aleatorios versus la cantidad de consejos, por lo que no creo que nos brinde ninguna información sobre la naturaleza de computación eficiente.
Kaveh

1
@Kaveh: ¡vale la pena pensar en la pista "cantidad de bits aleatorios frente a la cantidad de consejos"! Pero en mi mente (laica), incluso en preguntas como P vs. NP, en realidad no nos importa una construcción "explícita" de una TM (uniforme). Estas preguntas solo se refieren a la existencia de algoritmos eficientes. Por supuesto, una construcción es una prueba "sin dudas" de la existencia. Pero también puede haber algunas pruebas menos directas . Entonces, las cosas se reducen a extender "existencia para cada " a mostrar "existencia para todo n ". Es decir, a . nn
Stasys

1
Incluso si arregla el tiempo de ejecución, el VC-dim será infinito. Lo que puede esperar hacer es limitar el VC-dim de tiempo TMs limitados que se ejecutan en el tamaño de entrada n . Pero si piensas en el argumento entonces, tendrías que tomar una mayoría de TM potencialmente diferentes por cada n : no uniformidad. Tnn
Sasho Nikolov

Respuestas:


17

No estoy seguro de cuánta respuesta es esta, solo estoy disfrutando de un poco de rumia.

La pregunta 1 podría formularse igualmente sobre P NP y con una respuesta similar: las técnicas / ideas utilizadas para demostrar el resultado serían el gran avance más que la conclusión misma.

Para la pregunta 2 quiero compartir algunos antecedentes y un pensamiento. Casi todas las técnicas e ideas que tenemos para BPP = P, hasta donde yo sé, pasan por "desrandomización": Dada cualquier máquina de Turing probabilística polytime, construya un PRG para alimentarlo con un montón de bits elegidos determinísticamente en lugar de al azar unos, de modo que su comportamiento es muy similar a su comportamiento en bits verdaderamente aleatorios. Entonces, con generadores pseudoaleatorios suficientemente buenos, obtenemos BPP = P. (El "Mundo de BPP = P" de Goldreich proporciona evidencia de que cualquier prueba de BPP = P debe ser equivalente a esto).

Esto es bastante similar a BPP P / poly, excepto que allí, el PRG es la cadena de consejos que se produce por arte de magia. Quizás la mejor respuesta a su pregunta 2 es que en P no tenemos magia y debemos elaborar la cadena de consejos nosotros mismos. La desrandomización es también la idea detrás del resultado de 2004 SL = L, usando herramientas como gráficos de expansión.

Ahora considere qué implicaría tal prueba para un solo algoritmo particular, la prueba de primalidad de Miller-Rabin. Mostraría la existencia de algún generador determinista que selecciona una secuencia de enteros para alimentar a la prueba de primalidad de Miller-Rabin de tal manera que, si y solo si todos los enteros pasaron, el número original era primo.

Según tengo entendido (aunque no soy un experto), la pregunta de si existe tal lista y qué tan pequeños pueden ser los números (en particular si es suficiente para verificar todos los números debajo de algún límite) parece una pregunta bastante profunda en teoría de números y está estrechamente relacionada con las formas de prueba de la hipótesis de Riemann generalizada. Ver esta pregunta . No creo que haya una implicación formal aquí, pero no parece algo que esperamos obtener la próxima semana como un corolario en miniatura accidental de una construcción de PRG mucho más general.


Pensamientos interesantes! El documento de Oded sugiere que el Q2 se reduce a "existencia vs. construcción" de PRG. En la desrandomización a través de la dimensión VC, los aspectos algorítmicos se ignoran por completo.
Stasys

2
Gracias a todos (Kaveh, Ricky, Ryan, Sasho y "usul"): he aprendido mucho de sus comentarios. La "uniformidad" nunca fue un problema en mi vida, de ahí la ingenuidad de mis preguntas. Estoy aceptando la respuesta de "usul". Complementado por comentarios muy interesantes de Kaveh, Ricky, Ryan y Sasho, esto responde a mis dos preguntas.
Stasys
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.