Bem, vamos falar sobre algoritmos que não podem ser representados como uma cadeia de bits finita para qualquer tipo de codificação.
Deixe-me digitar esse algoritmo para você ... Ah, mas se eu fizer isso, posso representar esse algoritmo com a codificação do meu texto digitado.
Que tal representar meu algoritmo usando alguns "meios analógicos", digamos pela posição de algumas moedas na minha mesa. Embora a posição dessas moedas possa ser modelada por alguns números reais (que em alguns codificações pode ser impossível de representar finitamente), toda essa descrição pode ser novamente considerada uma representação do meu algoritmo e pode ser codificada em uma cadeia de bits novamente!
Espero que esses exemplos deixem claro que, se algum algoritmo não puder ser representado por uma cadeia de bits finita, não teremos meios de descrever esse algoritmo!
Então, por que consideraríamos a existência de algo que não podemos falar? Talvez interessante para a filosofia, mas não para a ciência. Assim, definimos a noção de algoritmo forma que ela possa ser representada por uma cadeia de bits, pois pelo menos sabemos que somos capazes de falar sobre todos os algoritmos.
Embora a resposta acima responda à pergunta, acho que a confusão sobre o exemplo dado se deve principalmente ao fato de uma representação precisar apenas representar exclusivamente algum algoritmo. A maneira de representação não precisa envolver os cálculos reais invocados pelo algoritmo! Isso é muito útil, pois significa que também podemos representar algoritmos incontestáveis !