Estou tentando entender compilação e interpretação, passo a passo, descobrindo uma imagem total. Por isso, fiz uma pergunta ao ler http://www.cs.man.ac.uk/~pjj/farrell/comp3.html este artigo
Diz :
O próximo estágio do compilador é chamado de analisador. Esta parte do compilador possui um entendimento da gramática da linguagem. Ele é responsável por identificar erros de sintaxe e por traduzir um programa sem erros em estruturas de dados internas que podem ser interpretadas ou gravadas em outro idioma.
Mas não consegui descobrir como o tokenizer pode tokenizar adequadamente o fluxo especificado que possui o erro de sintaxe.
Ele deve ficar preso ou fornecer informações erradas ao analisador. Quero dizer, o tokenizing também não é um tipo de tradutor?
Então, como ele simplesmente supera as linhas lexicais de código corrompidas ao usar token.
Há um exemplo de token dentro do link acima no cabeçalho do Tokenizer .
Pelo que entendi, parece que a forma do token, se houver algo errado no token de código, também estará corrompido.
Poderia, por favor, esclarecer meu mal-entendido?