Os computadores digitais também são analógicos se você descer todos os níveis de abstração até atingir os circuitos elétricos. A única diferença é que escolhemos "cortar", como ocorre com algum tipo de grade, em que níveis de mudanças analógicas detectáveis no sinal criamos outro novo nível de abstração que chamamos de bit ou byte.
Qualquer coisa que um computador analógico calcule, como, por exemplo, o sinal de saída de um filtro analógico ou a quantidade de milímetros que uma massa em um sistema de mola e amortecedor move, também atingirá uma resolução máxima. Isso ocorre por exemplo, por exemplo, ruído nos detectores, erro no equipamento de medição e talvez fenômenos quânticos, embora eu não tenha tanta certeza de como isso funcionaria. Se você definir um pouco como esse quantum muito pequeno de informações, obterá uma abstração digital para a saída do seu computador analógico.
Em outras palavras, se você usar uma abstração formal de um computador digital em que possa obter resolução suficiente para seus cálculos, poderá calcular o mesmo que um computador analógico do mundo real equivalente para esse problema.
O mesmo problema ocorre ao digitalizar o tempo. Por exemplo, se você procurar equivalências de filtro analógico e digital, sempre há um erro que é introduzido ao digitalizar um filtro analógico. Esse erro tende a 0 à medida que o tempo usado para a discretização do sistema contínuo diminui.