Existe una teoría de aproximación estándar donde la relación de aproximación es (para problemas conobjetivos),- el valor devuelto por algún algoritmoy- un valor óptimo. Y otra teoría, la deaproximación diferencialdonde la relación de aproximación es ,- el peor valor de una solución factible para la instancia dada. Losautoresde esta teoría afirman que tiene algunas ventajas definidas sobre la clásica. Por ejemplo:
- proporciona la misma relación de aproximación para problemas tales como cobertura de vértice mínima y conjunto independiente máximo que se sabe que son solo diferentes realizaciones del mismo problema;
- da la misma proporción para las versiones máxima y mínima del mismo problema. Al mismo tiempo, sabemos en teoría estándar que MIN TSP y MAX TSP tienen relaciones muy diferentes.
- Mide la distancia no solo al óptimo sino también al pesario . Entonces, en el caso de Vertex Cover, la teoría de aproximación estándar dice que es el mejor límite superior. Pero essentialy es la relación máxima entre el pesario y el óptimo. Por lo tanto, se garantiza que dicho algoritmo generará la solución con el peor valor.2 2
Mi argumento a favor es: en el análisis asintótico no tomamos en consideración las constantes y los términos de bajo orden (aquí recordé la cita de Avi Widgerson: "Tenemos éxito porque usamos el nivel correcto de abstracción") y este es el nivel de abstracción para comparar el uso de recursos del algoritmo. Pero cuando estudiamos la aproximación, por alguna razón, introducimos la diferencia en aquellos lugares donde podemos evitarla.
Mi pregunta es
¿Por qué la teoría de aproximación diferencial tan poco estudiada? ¿O los argumentos involucrados no son lo suficientemente fuertes?