A resposta para isso depende do campo em que você está. Se você é matemático, todas as normas em dimensões finitas são equivalentes : para quaisquer duas normas e , existem existem constantes , que dependem apenas da dimensão (e a, b), de modo que: ‖ ⋅ ‖ b C 1 , C 2∥⋅∥a∥⋅∥b C1,C2
C1∥x∥b≤∥x∥a≤C2∥x∥b.
Isso implica que as normas em dimensões finitas são bastante entediantes e não há essencialmente nenhuma diferença entre elas, exceto na forma como elas são dimensionadas. Isso geralmente significa que você pode escolher a norma mais conveniente para o problema que está tentando resolver . Normalmente, você deseja responder perguntas como "este operador ou procedimento é limitado" ou "esse processo numérico converge". Com a limitação, você normalmente só se importa que algo seja finito. Com a convergência, sacrificando a taxa na qual você tem convergência, você pode optar por usar uma norma mais conveniente.
Por exemplo, na álgebra linear numérica, a norma Frobenius às vezes é preferida porque é muito mais fácil de calcular do que a norma euclidiana, e também que ela se conecta naturalmente a uma classe mais ampla de operadores de Hilbert Schmidt . Além disso, como a norma euclidiana, é submultiplicativa: , ao contrário da norma max, por isso permite que você fale facilmente sobre a multiplicação de operadores em qualquer local o espaço em que você está trabalhando. As pessoas tendem a gostar muito da norma e da norma Frobenius porque têm relações naturais com os valores próprios e com os valores singulares das matrizes, além de serem sub-multiplicadoras. p = 2∥AB∥F≤∥A∥F∥B∥Fp=2
Para fins práticos , as diferenças entre normas se tornam mais acentuadas porque vivemos em um mundo de dimensões e, geralmente, importa quão grande é uma certa quantidade e como é medida. Essas constantes acima não são exatamente justas, portanto, torna-se importante quanto mais ou menos uma determinada norma é comparada a . " x " a " x " bC1,C2∥x∥a∥x∥b