Compreendendo a regressão gaussiana de processos através da visualização de funções de base dimensional infinita


14

Costuma-se dizer que a regressão gaussiana do processo corresponde (GPR) à regressão linear bayesiana com uma quantidade (possivelmente) infinita de funções básicas. Atualmente, estou tentando entender isso em detalhes para obter uma intuição para que tipo de modelo eu posso expressar usando o GPR.

  1. Você acha que essa é uma boa abordagem para tentar entender o GPR?

No livro Processos Gaussianos para Aprendizado de Máquina, Rasmussen e Williams mostram que o conjunto de processos gaussianos descritos pelo núcleo quadrado exponencial parametrizado pode ser equivalentemente descrito como regressão Bayesiana com crença anteriorw~N(0,σ 2 p I), relativa aos pesos e uma quantidade infinita de funções de base de forma& Phic(x;l)=exp(-(x-c)2

k(x,x;eu)=σp2exp(-(x-x)22eu2)
WN(0 0,σp2Eu) Assim, os parâmetros do núcleo poderia por totalmente traduzida para uma parametrização das funções de base.
ϕc(x;eu)=exp(-(x-c)22eu2)
  1. A parametrização de um kernel diferenciável sempre pode ser traduzida em parametrização das funções anterior e básica ou existem kernels diferenciáveis ​​em que, por exemplo, o número de funções básicas depende da configuração?

k(x,x)

k(x,x)=Eu=1λEuϕEu(x)ϕEu(x)
ϕEuWN(0 0,diag([λ12,...]))ϕEuk(x,x,θ)θ

Minha próxima pergunta é sobre o teorema da inversão de mercers.

  1. Quais conjuntos de funções básicas levam a kernels válidos?

E a extensão

  1. Quais conjuntos de funções básicas parametrizadas levam a kernels diferenciáveis ​​válidos?

Respostas:


1

Aqui estão algumas observações. Talvez alguém possa preencher os detalhes.

1) Representações básicas são sempre uma boa ideia. É difícil evitá-los se você realmente deseja fazer algo computacional com sua função de covariância. A expansão da base pode fornecer uma aproximação ao kernel e algo para trabalhar. A esperança é que você possa encontrar uma base que faça sentido para o problema que você está tentando resolver.

θθ

Normalmente, o número de funções básicas será (contável) infinito, portanto o número não varia com o parâmetro, a menos que alguns valores tenham causado a degeneração do kernel.

WN(0 0,dEuumag[λ12,...])WdEuumag[λ12,...]

λEuλEux

Se as funções básicas não forem ortogonais, será mais difícil mostrar que uma covariância definida a partir delas é definitiva positiva. Obviamente, nesse caso, você não está lidando com uma expansão própria, mas com alguma outra maneira de aproximar a função de interesse.

No entanto, não acho que as pessoas normalmente iniciem de várias funções e depois tentem construir um núcleo de covariância a partir delas.

RE: Diferenciabilidade do kernel e diferenciabilidade das funções básicas. Na verdade, não sei a resposta para essa pergunta, mas gostaria de oferecer a seguinte observação.

A análise funcional prossegue aproximando funções (de um espaço dimensional infinito) por somas finitas de funções mais simples. Para fazer isso funcionar, tudo depende do tipo de convergência envolvida. Normalmente, se você estiver trabalhando em um conjunto compacto com fortes propriedades de convergência (convergência uniforme ou soma absoluta) nas funções de interesse, obterá o tipo de resultado intuitivo que deseja: as propriedades das funções simples passam para a função limit - por exemplo, se o kernel é uma função diferenciável de um parâmetro, as funções de expansão devem ser funções diferenciáveis ​​do mesmo parâmetro e vice-versa. Sob propriedades de convergência mais fracas ou domínios não compactos, isso não acontece. Na minha experiência, há um contra-exemplo para toda idéia "razoável" que surgir.

Nota: Para evitar possíveis confusões dos leitores desta pergunta, observe que a expansão gaussiana do ponto 1 não é um exemplo da expansão própria do ponto 2.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.