Segundo a Wikipedia, a taxa de convergência é expressa como uma proporção específica de normas de vetores. Estou tentando entender a diferença entre taxas "lineares" e "quadráticas", em diferentes pontos do tempo (basicamente, "no início" da iteração e "no final"). Pode-se afirmar que:
com convergência quadrática, a norma do erro da iteração x_ {k + 1} é delimitada por \ | e_k \ | ^ 2
Tal interpretação significaria que, com algumas (pequeno número de) iterações do algoritmo linearmente convergente A1 (inicialização aleatória assumida), um erro menor seria alcançado que com algumas iterações do algoritmo A2 quadraticamente convergente. No entanto, como o erro diminui e, devido ao quadrado, iterações posteriores significariam um erro menor com A2.
A interpretação acima é válida? Observe que isso desconsidera o coeficiente de taxa .