O campo da computação distribuída ficou muito aquém do desenvolvimento de uma única teoria matemática para descrever algoritmos distribuídos. Existem vários 'modelos' e estruturas de computação distribuída que simplesmente não são compatíveis entre si. A pura explosão de propriedades temporais variáveis (assincronia, sincronia, sincronia parcial), várias primitivas de comunicação (passagem de mensagens vs. memória compartilhada, broadcast vs. unicast), modelos de múltiplas falhas (falha de parada, recuperação de falha, envio de omissão, bizantino e assim por diante) on) nos deixou um número intratável de modelos, estruturas e metodologias de sistema, que comparar resultados de solvabilidade relativos e limites mais baixos entre esses modelos e estruturas se tornou árduo, intratável e, às vezes, impossível.
Minha pergunta é muito simples, por que isso acontece? O que há de tão fundamentalmente diferente na computação distribuída (de sua contraparte seqüencial) que não conseguimos coletar a pesquisa em uma teoria unificada da computação distribuída? Com a computação seqüencial, as Máquinas de Turing, as Funções Recursivas e o Cálculo Lambda são todos equivalentes. Foi apenas um golpe de sorte ou fizemos realmente um bom trabalho ao encapsular a computação seqüencial de uma maneira que ainda está para ser realizada com a computação distribuída?
Em outras palavras, a computação distribuída é inerentemente inflexível para uma teoria elegante (e, em caso afirmativo, como e por quê?), Ou simplesmente não somos inteligentes o suficiente para descobrir tal teoria?
A única referência que pude encontrar que aborda esse problema é: " Avaliando duas décadas de pesquisa em teoria da computação distribuída " por Fischer e Merritt DOI: 10.1007 / s00446-003-0096-6
Quaisquer referências ou exposições seriam realmente úteis.