Não existem tais padrões, pois as estimativas de erros confiáveis geralmente custam muito mais do que os cálculos aproximados.
Basicamente, existem quatro tipos de estimativas de erro:
(i) Análises teóricas comprovando que um método numérico é numericamente estável. Isso realmente não fornece uma barra de erro, pois a análise apenas garante que o erro cometido não seja pior que um erro quantificado nos argumentos de entrada. É suficiente para a maioria dos cálculos científicos, pois as entradas também são aproximadas, portanto, o erro cometido com um método numericamente estável não é pior do que ter usado uma entrada ligeiramente diferente (mas desconhecida). Os métodos numéricos mais conceituados são acompanhados de uma análise numérica, embora não seja possível encontrar nenhuma implementação que reporte mediante solicitação o chamado erro inverso resultante.
(ii) estimativas de erros assintóticos. Eles assumem que os produtos de todos os erros (erros de entrada, erros de arredondamento ou discretização sendo as fontes mais comuns) podem ser negligenciados (questionável se as funções forem muito não-lineares) e usar análise de sensibilidade para propagar erros de entrada. Juntamente com uma análise de estabilidade numérica, isso também pode capturar o efeito de erros de arredondamento ou de discretização. As barras de erro resultantes são tão confiáveis quanto a validade das suposições nas quais elas se baseiam. Usando ferramentas de diferenciação automática, o custo da estimativa de erro normalmente é um fator de 1 ou 2, além do custo da aproximação. Portanto, esse tipo de estimativa de erro é bastante frequente na prática.
[Editar] Por exemplo, o teorema de Oettli-Prager fornece estimativas de erros atrasados facilmente computáveis para a solução de sistemas lineares. A análise de sensibilidade diz que esses erros devem ser multiplicados pela norma da matriz inversa, que pode ser estimada usando o estimador de Hager (embutido nos estimadores de números de condição modernos).
(iii) Análise de erro estocástico: (CESTAC, http://www.sciencedirect.com/science/article/pii/0378475488900705) Isso é feito sobrecarregando todas as operações com uma variante estocástica correspondente que avalia três conjuntos de argumentos e depois adiciona um erro artificial de arredondamento aleatório. os três resultados finais são usados para calcular uma média e um desvio padrão da raiz quadrada de (soma dos quadrados dos desvios da média dividida por 2 = 3-1). Isso fornece uma estimativa de precisão bastante útil da parte do erro de arredondamento. No entanto, isso não leva em conta erros de discretização, que geralmente é o erro dominante nos cálculos ODE e PDE. O custo depende da linguagem de programação devido à sobrecarga na execução de operações sobrecarregadas. Supondo (o que quase nunca ocorre) que a sobrecarga não acarreta penalidade de tempo, o custo do resultado mais a estimativa de erro é um fator 3 em comparação ao cálculo apenas da aproximação.
(iv) Análise de intervalo: Isso fornece limites rigorosos para todas as fontes de erro, se feitos corretamente, mas, exceto em casos simples, requer muita experiência (ou software que o incorpora) para fazê-lo de uma maneira que os limites não superestimem severamente os erros reais . Um bom software de intervalo está disponível, entre outros, para álgebra linear (por exemplo, IntLab http://www.ti3.tu-harburg.de/rump/intlab/ ; custa um fator de cerca de 6 se a dimensão for grande) e otimização global (por exemplo, , COCONUT http://www.mat.univie.ac.at/~coconut/coconut-environment/; pode ser muito mais caro ou até mais barato que a otimização global aproximada, dependendo dos recursos do problema). Mas muitas outras classes de problemas fáceis de tratar com precisão aproximadamente (por exemplo, encerrando as trajetórias dos grandes planetas do sistema solar ao longo de 10 anos) estão completamente fora do alcance da atual geração de métodos de intervalo.