Fico um pouco desconfortável com o projeto e / ou o cálculo on-the-fly quando se trata de análise. Há muita pressão para fazer as coisas e mostrá-las ao usuário rapidamente, o que leva a atalhos. Não sei contar quantos dias perdi o rastreamento de problemas com o alinhamento de dados em camadas que vêm de diferentes processos, apenas para descobrir que em algum momento um programa (mer) decidiu que, por conveniência, "simplesmente ignoraremos tudo o que passou 6 decimal ".
A menos que se tenha o código e o conhecimento para entendê-lo, os cálculos por trás das transições on-the-fly são invisíveis, é difícil testar sua veracidade e impossível ajustar. Por exemplo, para usar uma analogia de geoprocessamento raster (sei que sua pergunta é sobre vetores, mas ilustra claramente o conceito), quando projeto "manualmente", posso escolher entre o vizinho mais próximo, bilinear, cúbico, spline etc., dependendo do natureza dos meus dados e a finalidade a que o resultado se destina. On-the-fly geralmente deixa cair ou oculta coisas assim.
Durante todo o tempo, espero que o processamento on-the-fly seja aprimorado e testado o suficiente para ser confiável. Acho que ainda não estamos, posso estar errado, mas continuo convencido.