Costuma-se dizer que a regressão gaussiana do processo corresponde (GPR) à regressão linear bayesiana com uma quantidade (possivelmente) infinita de funções básicas. Atualmente, estou tentando entender isso em detalhes para obter uma intuição para que tipo de modelo eu posso expressar usando o GPR.
- Você acha que essa é uma boa abordagem para tentar entender o GPR?
No livro Processos Gaussianos para Aprendizado de Máquina, Rasmussen e Williams mostram que o conjunto de processos gaussianos descritos pelo núcleo quadrado exponencial parametrizado pode ser equivalentemente descrito como regressão Bayesiana com crença anteriorw~N(0,σ 2 p I), relativa aos pesos e uma quantidade infinita de funções de base de forma& Phic(x;l)=exp(-(x-c)2
- A parametrização de um kernel diferenciável sempre pode ser traduzida em parametrização das funções anterior e básica ou existem kernels diferenciáveis em que, por exemplo, o número de funções básicas depende da configuração?
Minha próxima pergunta é sobre o teorema da inversão de mercers.
- Quais conjuntos de funções básicas levam a kernels válidos?
E a extensão
- Quais conjuntos de funções básicas parametrizadas levam a kernels diferenciáveis válidos?