Qual é o estado atual dos pré-condicionadores polinomiais?


15

Eu me pergunto o que aconteceu com os pré-condicionadores polinomiais. Estou interessado neles, porque eles parecem ser comparativamente elegantes do ponto de vista matemático, mas, tanto quanto eu li em pesquisas sobre métodos de krylov, eles geralmente têm um desempenho muito ruim como precondicionadores. Nas palavras de Saad e van der Host, "o interesse atual por essas técnicas praticamente desapareceu" (Aqui) . No entanto, houve usos para cálculos multicore e GPU no passado recente.

Alguém pode me dizer, ou melhor, me explicar em quais contextos esses métodos ainda estão vivos e onde encontrar uma boa pesquisa sobre o estado da arte atual?


Um artigo recente sobre o arxiv ( arxiv.org/pdf/1806.08020.pdf ) investiga pré-condicionadores polinomiais para Arnoldi. Em particular, eles o testam em uma variedade de problemas e obtêm uma boa velocidade. Eles concluem que a redução nas operações de vetores devido ao pré-condicionamento polinomial "é uma grande promessa para a computação de autovalor que evita a comunicação em computadores de alto desempenho". Eu não sou um dos autores.
amarney 10/07/19

Respostas:


12

Para um desempenho razoável, os pré-condicionadores polinomiais precisam de estimativas espectrais razoavelmente precisas. Para problemas elípticos mal condicionados, os menores valores próprios geralmente são separados, de modo que métodos como Chebyshev estão longe de ser ótimos. A propriedade mais interessante dos métodos polinomiais é que eles não requerem produtos internos.

Na verdade, é bastante popular usar smoothers polinomiais em multigrid. A principal diferença de um pré-condicionador é que o mais suave deve visar apenas parte do espectro. Atualmente, um polinômio mais suave é o padrão no multigrid do PETSc, por exemplo. Veja também Adams et al., Paralelo multigrid mais suave: polinômio versus Gauss-Seidel (2003) para uma comparação.

Os pré-condicionadores polinomiais podem ser usados ​​apenas para reduzir a frequência das reduções. Embora eles tenham que ser ajustados novamente para cada matriz, a economia pode ser significativa em hardware em que as reduções são caras (comum em grandes supercomputadores). Consulte McInnes, Smith, Zhang e Mills, Hierarchical and Nested Krylov Methods for Extreme-Scale Computing (2012) para obter mais informações.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.