Estou desenvolvendo um algoritmo distribuído e, para melhorar a eficiência, ele se baseia no número de discos (um por máquina) e em uma estratégia eficiente de equilíbrio de carga. Com mais discos, podemos reduzir o tempo gasto com E / S; e com uma política eficiente de equilíbrio de carga, podemos distribuir tarefas sem muita sobrecarga de replicação de dados.
Existem muitos estudos na literatura que lidam com o mesmo problema, e cada um deles realiza experimentos diferentes para avaliar sua proposta. Alguns experimentos são específicos da estratégia apresentada e outros, como escala fraca (escalabilidade) e escala forte (aceleração), são comuns a todos os trabalhos.
O problema é que os experimentos geralmente são executados em infraestruturas totalmente diferentes (discos, processadores, # máquinas, rede) e, dependendo do que está sendo avaliado, isso pode gerar comparações falsas / injustas . Por exemplo, posso obter 100% de aceleração no meu aplicativo em execução em 10 máquinas com conexão Infiniband, enquanto eu poderia obter os mesmos resultados ou até piores se minha conexão fosse Ethernet.
Então, como comparar honestamente diferentes experimentos para apontar ganhos de eficiência?