Estaba mirando esta lectura del MIT sobre la complejidad computacional y en el minuto 15:00 Erik Demaine se embarca en una demostración para mostrar lo que se indica en el título de esta pregunta. Sin embargo, no puedo seguir su razonamiento, en la práctica lo que dice es esto:
podemos establecer un problema de decisión como una cadena de y que en la práctica es la tabla de verdad de la función.
Continúa diciendo que un problema de decisión es una cadena infinita de bits, mientras que un programa es una cadena finita de bits y hasta aquí no hay problema. Lo que no entiendo es la continuación de la prueba a partir de este punto: los problemas de decisión están en
porque puede poner un punto decimal antes de la cadena que representa el problema, obteniendo así la parte decimal de un verdadero
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Un programa es "solo" un número entero en porque es una cadena finita de bits. El punto que no entiendo es cómo es posible que un problema de decisión sea comparable a un número real en lugar de un número entero ... Quiero decir, si usamos el argumento de "poner un punto delante del número" no podría ¿Se puede aplicar el mismo razonamiento a la cantidad de algoritmos posibles que se pueden producir?