Algoritmos y teoría de la complejidad estructural.


21

Muchos resultados importantes en la teoría de la complejidad computacional, y en particular la teoría de la complejidad "estructural", tienen la propiedad interesante de que pueden entenderse como fundamentalmente siguientes (como lo veo ...) de los resultados algorítmicos que proporcionan un algoritmo eficiente o protocolo de comunicación para algunos problema. Estos incluyen lo siguiente:

  • IP = PSPACE se deriva de un algoritmo recursivo de espacio eficiente que simula protocolos interactivos, y un protocolo interactivo eficiente para evaluar fórmulas booleanas totalmente cuantificadas. De hecho, cualquier igualdad de clase de complejidad A = B puede verse como resultado de dos algoritmos eficientes (un algoritmo para problemas en A que es eficiente con respecto a B, y viceversa).
  • Probar la integridad de NP de algún problema es solo encontrar un algoritmo eficiente para reducir un problema de NP completo.
  • El ingrediente (¡posiblemente!) Crucial en el Teorema de la Jerarquía del Tiempo es una eficiente simulación universal de máquinas Turing.
  • El teorema de PCP es que la amplificación eficiente de huecos es posible para problemas de satisfacción de restricciones.
  • etcétera etcétera.

Mi pregunta (¡que posiblemente es vagamente irremediable!) Es la siguiente: ¿Hay resultados importantes en la teoría de la complejidad estructural (a diferencia de los "metaresultados" como la barrera de relativización) que no se sabe que tengan una interpretación natural en términos de eficiencia algoritmos (o protocolos de comunicación)?


8
Espero que la respuesta sea "no", ¡porque creo que la complejidad se trata realmente de comprender el poder de los algoritmos! Iba a decir que PARITY no está en casi califica, pero ahora no lo creo. Puede ver el Lema de conmutación como un algoritmo aleatorio que permite cambiar en dos filas de un circuito sin un tamaño grande golpe en marcha (e incluso puede ser derandomized ( eccc.hpi-web.de/report/2012/116 ).AC0
Joshua Grochow

2
AshleyMontanaro: Quizás la teoría de la complejidad está vinculada "por definición" a la eficiencia (tiempo / espacio) de los algoritmos. Tan pronto como se aleja de la eficiencia, encuentra resultados fundamentales como la indecidibilidad del problema de detención, pero ya no está en el dominio de la "complejidad". Sin embargo, tratando de dar una respuesta parcial, creo que la caracterización lógica de las clases de complejidad es un resultado importante que brinda una perspectiva diferente no vinculada (directamente) a los "algoritmos".
Marzio De Biasi

3
En particular, habría enumerado la caracterización descriptiva de NP en términos de lógica existencial de segundo orden. Esto se trata únicamente de poder expresivo y no se trata principalmente de algoritmos. Sin embargo, el teorema de Courcelle sugiere que esta distinción no es real.
Suresh Venkat

3
¿Diría que la prueba Razborov-Smolensky de PARIDAD que no está en AC0 contiene un resultado algorítmico en su núcleo? ¿Y qué pasa con los límites inferiores de la complejidad de la consulta, como la que dice que una computadora cuántica no puede resolver el problema de búsqueda desordenada en consultas ? o(n)
Robin Kothari

Respuestas:


19

Para muchos límites inferiores en la complejidad algebraica, no conozco una interpretación natural en términos de algoritmos eficientes. Por ejemplo:

  • La técnica de derivadas parciales de Nisan y Wigderson

  • La técnica de rango de Hesse de Mignon y Ressayre (que da el límite inferior más conocido actualmente en permanente versus determinante)

  • el grado límite de Strassen (y Baur-Strassen)

  • La técnica de componentes conectados de Ben-Or.

En todos los resultados anteriores, realmente parecen estar usando una propiedad de las funciones involucradas, donde esa propiedad en sí parece no estar relacionada con la existencia de ningún algoritmo particular (y mucho menos uno efectivo).

Para resultados no algebraicos, aquí hay un par de pensamientos:

  • El argumento de conteo estándar para el ordenando el límite inferior no parece tener una interpretación en términos de algoritmos eficientes. Sin embargo, existe una versión contradictoria de este límite inferior [1], en la que existe un algoritmo que, dado cualquier árbol de decisión que utiliza muy pocas comparaciones, construye eficientemente una lista que el árbol de decisión clasifica incorrectamente. Pero la versión de confrontación, aunque no es difícil, es significativamente más difícil que la prueba de conteo. (Tenga en cuenta que esto es bastante más fuerte de lo que se obtiene aplicando la técnica de límite inferior del adversario, por ejemplo, como en estas notas , ya que en [1] el adversario en sí mismo es eficiente ).nlogn

  • Creo que he cambiado de opinión sobre PARITY, no en (incluso la prueba original, y mucho menos la prueba Razborov-Smolensky, como lo señaló @RobinKothari). Aunque el Switching Lemma puede verse como un algoritmo aleatorio ( o determinista ) que le permite intercambiar dos filas de un circuito sin un gran aumento de tamaño, creo que esto realmente tiene un sabor diferente al de muchos resultados en complejidad, y específicamente el los que usted cita Por ejemplo, la prueba de Williams de que se basa de manera crucial en la existencia de un buen algoritmo para un problema en particular. Por el contrario, si se pudiera probar algo como el Lema de conmutación de manera no constructiva, sería igual de bueno para demostrar PARIDAD que no está en .AC0ACCNEXPAC0

Debido a estos dos últimos ejemplos, especialmente la clasificación, donde la prueba estándar no es constructiva, me parece que la pregunta no solo se trata de interpretaciones naturales en términos de algoritmos eficientes, sino también de alguna manera sobre la constructividad / efectividad de las pruebas de varios resultados de complejidad (dependiendo de lo que el OP tenía en mente). Es decir, el límite inferior de clasificación estándar no es constructivo ni algorítmico, pero existe una prueba algorítmica constructiva del mismo resultado.

[1] Atallah, MJ y Kosaraju, SR Un límite inferior basado en el adversario para la clasificación . Informar. Proc. Letón. 13 (2): 55-57, 1981.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.