A continuación, supongamos que estamos trabajando con una máquina Turing de cinta infinita.
Al explicar la noción de la complejidad del tiempo a alguien, y por qué se mide en relación con el tamaño de entrada de una instancia, me topé con la siguiente afirmación:
[..] Por ejemplo, es natural que necesite más pasos para multiplicar dos enteros con 100000 bits que, por ejemplo, multiplicar dos enteros con 3 bits.
El reclamo es convincente, pero de alguna manera saluda con la mano. En todos los algoritmos que encontré, cuanto mayor es el tamaño de entrada, más pasos necesita. En palabras más precisas, la complejidad del tiempo es una función monótonamente creciente del tamaño de entrada.
¿Es el caso que la complejidad del tiempo es siempre una función creciente en el tamaño de entrada? Si es así, ¿por qué es así? ¿Hay alguna prueba de eso más allá de agitar las manos?