Bueno, hablemos de algoritmos que no se pueden representar como una cadena de bits finita para ningún tipo de codificación.
Déjame escribir un algoritmo para ti ... Ah, pero si lo hago, puedo representar ese algoritmo con la codificación de mi texto escrito.
¿Qué tal representar mi algoritmo usando algunos 'medios analógicos', digamos por la posición de algunas monedas en mi escritorio? Aunque la posición de esas monedas puede ser modelada por algunos números reales (lo que en algunas codificaciones podría ser imposible de representar de manera finita), ¡esta descripción completa puede considerarse nuevamente una representación de mi algoritmo y puede codificarse nuevamente en una cadena de bits!
¡Espero que estos ejemplos aclaren que si algún algoritmo no puede ser representado por una cadena de bits finita, no tenemos forma de describir este algoritmo en absoluto!
Entonces, ¿por qué consideraríamos la existencia de algo de lo que no podemos hablar? Quizás interesante para la filosofía, pero no para la ciencia. Por lo tanto, definimos la noción de algoritmo de modo que pueda representarse mediante una cadena de bits, ya que al menos sabemos que podemos hablar sobre todos los algoritmos.
Aunque la respuesta anterior a la pregunta formulada, creo que la confusión sobre el ejemplo dado se debe principalmente al hecho de que una representación solo necesita representar de manera única algún algoritmo. ¡La forma de representación no necesita involucrar los cálculos reales invocados por el algoritmo! ¡Esto es muy útil, ya que significa que también podemos representar algoritmos no calificables !