Estoy tratando de desarrollar algunas nociones de un cálculo de diferencia entre una máquina ideal de Turing ideal concebida por un desarrollador (por ejemplo, lo que sea que pretenda un desarrollador de software), llámelo y las máquinas que representan el software que realmente se diseñó y implementado, digamos M α y M β , respectivamente.
Específicamente, mi interés es examinar las limitaciones (debido al Teorema de Rice, por ejemplo) en la detección automática de errores en los programas de software entre el Lenguaje procesado por la máquina ideal y el lenguaje procesado por las Máquinas desarrolladas / implementadas.
Cualquier referencia al trabajo previo que funcione con algunas nociones de explorar las diferencias entre dos Máquinas de Turing especificadas, o excluir que un Lenguaje formal de bajo nivel sería extremadamente útil y apreciado; porque prefiero citar que escribir :-).