Los algoritmos de aproximación son solo para problemas de optimización, no para problemas de decisión.
¿Por qué no definimos la relación de aproximación como la fracción de errores que comete un algoritmo al intentar resolver algún problema de decisión? Debido a que "la relación de aproximación" es un término con un significado estándar bien definido, uno que significa algo más, y sería confuso usar el mismo término para dos cosas diferentes.
Bien, ¿podríamos definir alguna otra relación (llamémosla de otra manera, por ejemplo, "la relación det") que cuantifica el número de errores que comete un algoritmo, para algún problema de decisión? Bueno, no está claro cómo hacerlo. ¿Cuál sería el denominador para esa fracción? O, para decirlo de otra manera: habrá un número infinito de instancias de problemas, y para algunos de ellos el algoritmo dará la respuesta correcta y otros dará la respuesta incorrecta, por lo que terminará con una relación que es "algo dividido por infinito", y eso termina sin sentido o no definido.
Alternativamente, podríamos definir como la fracción de errores que el algoritmo comete, en casos problemáticos de tamaño n . Entonces, podríamos calcular el límite de r n como n → ∞ , si existe dicho límite. Esto seriarnortenorternorten → ∞estar bien definido (si existe el límite). Sin embargo, en la mayoría de los casos, esto podría no ser terriblemente útil. En particular, asume implícitamente una distribución uniforme en las instancias problemáticas. Sin embargo, en el mundo real, la distribución real en las instancias problemáticas puede no ser uniforme, a menudo está muy lejos de ser uniforme. En consecuencia, el número que obtiene de esta manera a menudo no es tan útil como podría esperar: a menudo da una impresión engañosa de lo bueno que es el algoritmo.
Para obtener más información sobre cómo las personas lidian con la intractabilidad (dureza NP), eche un vistazo a Cómo lidiar con la intratabilidad: problemas NP-completos .