Eu estava olhando para esta leitura do MIT sobre complexidade computacional e, às 15:00, Erik Demaine embarca em uma demonstração para mostrar o que é afirmado no título desta pergunta. No entanto, não posso seguir seu raciocínio, na prática o que ele diz é o seguinte:
podemos declarar um problema de decisão como uma seqüência de e que na prática é a tabela verdadeira da função.
Ele continua dizendo que um problema de decisão é uma sequência infinita de bits, enquanto um programa é uma sequência finita de bits e, até aqui, não há problema. O que não entendo é a continuação da prova a partir deste ponto: Os problemas de decisão estão em
porque você pode colocar um ponto decimal antes da string que representa o problema, obtendo assim a parte decimal de um real
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Um programa é "apenas" um número inteiro em porque é uma sequência finita de bits. O ponto que eu não entendo é como é possível que um problema de decisão seja comparável a um número real em vez de um número inteiro ... Quero dizer, se usarmos o argumento de "colocar um ponto na frente do número", não é possível o mesmo raciocínio também pode ser aplicado ao número de algoritmos possíveis que podem ser produzidos?