Na aula da semana passada, meu professor comentou e disse que as máquinas de Turing são usadas como uma medida / modelo padrão do que é computável e são uma base útil de discussão para esse assunto. Ela também disse que todas as variantes de máquinas de Turing são comprovadamente equivalentes em termos computacionais - lidas, tão poderosas - quanto uma a outra. W
Comentei e disse ontem que, com relação à capacidade de computação, notei que algumas máquinas de turing podem levar incrivelmente grandes quantidades de tempo para calcular algo muito simples, enquanto uma máquina de turing com mais fitas pode calcular algo com uma complexidade assintótica mais baixa em relação ao número das etapas necessárias.
Ela disse que, com relação ao discurso de classe, o tempo de execução de um algoritmo específico em uma máquina de turing não altera a definição de computabilidade, nem o poder com o qual medimos a computabilidade. "Estamos preocupados com o que é computável, não com o que é computável com eficiência neste momento". Portanto, não importa se as máquinas de turing têm mais e mais fitas, e mais e mais fitas implica que ele pode calcular em etapas menores. Ok, entendo que estamos realmente focados no que é computável, não na velocidade com que podemos computá-lo.
Algo sobre isso me incomoda, porque até esse momento, algoritmos com complexidade assintótica anormalmente grande de tempo e espaço realmente definem os limites do que é, talvez eu deva dizer, praticamente computável.
Então, eu tenho algumas perguntas:
- Suponha que tenhamos um modelo para uma máquina de turbulência quântica , isso deve ser equivalente a uma máquina de turing "regular", certo?
Então, a resposta para essa pergunta, eu acho, realmente está indo na minha razão de escrever este post. A tecnologia de computação quântica antiqua as definições clássicas do que é computável através de uma máquina de turing?
- Isso está acima da minha cabeça e devo excluir esta postagem? Não pretendo ser precoce, apenas não vi uma pergunta semelhante à minha.