Já existem várias respostas que explicam por que matrizes definidas positivas simétricas são tão importantes, portanto, fornecerei uma resposta explicando por que elas não são tão importantes quanto algumas pessoas, incluindo os autores de algumas dessas respostas, pensam. Por uma questão de simplicidade, limitarei o foco às matrizes simétricas e me concentrarei nos hessianos e na otimização.
Se Deus tivesse tornado o mundo convexo, não haveria otimização convexa, apenas haveria otimização. Da mesma forma, não haveria matrizes definidas positivas (simétricas), apenas matrizes (simétricas). Mas não é esse o caso, então lide com isso.
Se um problema de programação quadrática for convexo, ele poderá ser resolvido "facilmente". Se não for convexo, ainda é possível encontrar um ótimo global usando métodos branch e bound (mas pode demorar mais e mais memória).
Se um método de Newton é usado para otimização e o Hessian em alguma iteração é indefinido, não é necessário "finagle" para uma definição positiva. Se estiver usando uma pesquisa de linha, as direções de curvatura negativa podem ser encontradas e a pesquisa de linha executada ao longo delas, e se estiver usando uma região de confiança, haverá uma região de confiança pequena o suficiente para que a solução do problema da região de confiança atinja a descida.
Quanto aos métodos Quasi-Newton, o BFGS (amortecido se o problema for restrito) e o DFP mantêm uma definição positiva da aproximação Hessiana ou inversa Hessiana. Outros métodos quase-Newton, como SR1 (classificação simétrica um), não necessariamente mantêm uma definição positiva. Antes de você ficar completamente deformado com isso, essa é uma boa razão para escolher SR1 para muitos problemas - se o Hessian realmente não for definido positivamente ao longo do caminho para o ideal, forçando a aproximação Quasi-Newton a ser definida positivamente. pode resultar em uma péssima aproximação quadrática da função objetivo. Por outro lado, o método de atualização SR1 é "solto como um ganso" e pode transformar sua definição com firmeza à medida que avança.
Para problemas de otimização não-linearmente restritos, o que realmente importa não é o hessiano da função objetivo, mas o hessiano do lagrangiano. O Hessiano do Lagrangiano pode ser indefinido, mesmo no ideal (e), e de fato é apenas a projeção do Hessiano do Lagrangiano no espaço nulo do Jacobiano das restrições ativas (lineares e não-lineares) que precisam ser semi-positivas -definido no melhor. Se você modelar o Hessiano do Lagrangiano via BFGS e, assim, restringi-lo a uma definição positiva, pode ser um ajuste terrível em todos os lugares, e não funcionar bem. Por outro lado, o SR1 pode adaptar seus valores próprios ao que realmente "vê".
Há muito mais que eu poderia dizer sobre tudo isso, mas isso é suficiente para lhe dar um sabor.
Edit : O que eu escrevi 2 parágrafos acima está correto. No entanto, esqueci de salientar que isso também se aplica a problemas com restrições lineares. No caso de problemas linearmente limitados, o hessiano do lagrangiano é apenas (reduz a) o hessiano da função objetivo. Portanto, a condição de otimização de 2ª ordem para um mínimo local é que a projeção do Hessiano da função objetiva no espaço nulo do Jacobiano das restrições ativas seja semi-definida positiva. Mais notavelmente, o hessiano da função objetivo não precisa (necessariamente) ser psd no ideal, e muitas vezes não é, mesmo em problemas linearmente restritos.