La teoría de la complejidad, a través de conceptos como la completitud de NP, distingue entre problemas computacionales que tienen soluciones relativamente eficientes y aquellos que son intratables. La complejidad "de grano fino" tiene como objetivo refinar esta distinción cualitativa en una guía cuantitativa en cuanto al tiempo exacto requerido para resolver problemas. Más detalles se pueden encontrar aquí: http://simons.berkeley.edu/programs/complexity2015
Aquí hay algunas hipótesis importantes:
ETH: - S A T requiere 2 δ n tiempo para algunos δ > 0 .
SETH: por cada , hay una k tal que k - S A T en n variables, las cláusulas m no se pueden resolver en 2 ( 1 - ε ) n p o l y m time.
Se sabe que SETH es más fuerte que ETH y ambos son más fuertes que , y ambos más fuertes que F T P ≠ W [ 1 ] .
Otras cuatro conjeturas importantes:
Conjetura de 3SUM: 3SUM en enteros en { - n 3 , … , n 3 } requiere n 2 - o ( 1 ) tiempo
Conjetura de OV: los vectores ortogonales en vectores requieren n 2 - o ( 1 ) tiempo.
Conjetura de APSP: la ruta más corta de todos los pares en nodos y pesos de bit O ( log n ) requiere n 3 - o ( 1 ) tiempo.
Conjetura de BMM: Cualquier algoritmo "combinatorio" para la multiplicación de matrices booleanas requiere tiempo.
Se sabe que SETH implica la conjetura del VO (Ryan Willams, 2004). Además de la prueba de Ryan de que SETH OV Conjetura, no hay otras reducciones relacionadas con las conjeturas conocidas.
Mi pregunta: ¿Conoces otras hipótesis o conjeturas relacionadas en esta área? ¿Cuáles son las relaciones entre ellos?
Reconocimiento: los resultados enumerados son de las diapositivas de Virginia Vassilevska Williams, ella también me dio respuestas parciales a esta pregunta.
Enlace a diapositivas: http://theory.stanford.edu/~virgi/overview.pdf