Estoy tratando de entender la compilación y la interpretación, paso a paso, descubriendo una imagen total. Entonces hice una pregunta mientras leía http://www.cs.man.ac.uk/~pjj/farrell/comp3.html este artículo
Dice :
La siguiente etapa del compilador se llama Analizador. Esta parte del compilador comprende la gramática del lenguaje. Es responsable de identificar los errores de sintaxis y de traducir un programa sin errores en estructuras de datos internas que se puedan interpretar o escribir en otro idioma.
Pero no pude entender cómo el tokenizador puede tokenizar correctamente la secuencia dada que tiene el error de sintaxis.
Debería estar atascado allí o proporcionar información incorrecta al analizador. Quiero decir, ¿no es la tokenización también una especie de traductor?
Entonces, ¿cómo acaba de superar las líneas de código léxicas corruptas mientras se tokeniza?
Hay un ejemplo de token dentro del enlace anterior en el encabezado The Tokenizer .
Según tengo entendido, la forma del token parece, si hay algo mal en el token de código también estaría dañado.
¿Podría por favor aclarar mi malentendido?