Modelagem bayesiana usando normal multivariada com covariável


11

Suponha que você tenha uma variável explicativa que representa uma determinada coordenada. Você também tem uma variável de resposta . Agora, podemos combinar as duas variáveis ​​como:X=(X(s1),,X(sn))sY=(Y(s1),,Y(sn))

W(s)=(X(s)Y(s))N(μ(s),T)

Nesse caso, simplesmente escolhemos μ(s)=(μ1μ2)T e T é uma matriz de covariância que descreve o relação entre X e Y . Isso descreve apenas o valor de X e Y em s . Como temos mais pontos de outros locais para X e Y , podemos descrever mais valores de W(s) da seguinte maneira:

(XY)=N((μ11μ21),TH(ϕ))

Você notará que reorganizamos os componentes de X e Y para obter todos os X(si) em uma coluna e, depois disso, concatenar todos os Y(si) juntos. Cada componente H(ϕ)ij é uma função de correlação ρ(si,sj) e T é como acima. A razão temos a covariância TH(ϕ) é porque nós assumimos que é possível separar a matriz de covariância como C(s,s)=ρ(s,s)T .

Pergunta 1: Quando eu calculo o {\ bf {Y}} \ mid {\ bf {X}} condicional YX, o que realmente estou fazendo é gerar um conjunto de valores de Y base em X correto? Eu já tenho Y então estaria mais interessado em prever um novo ponto y(s0) . Nesse caso, eu deveria ter uma matriz H(ϕ) definida como

H(ϕ)=(H(ϕ)hhρ(0,ϕ))

em que h(ϕ) é um vetor ρ(s0sj;ϕ) . Portanto, podemos construir um vetor (sem rearranjo):

W=(W(s1),,W(sn),W(s0))TN(1n+1(μ1μ2),H(ϕ)T)

E agora apenas reorganizo para obter uma distribuição conjunta e obtenha o condicional . p(y( s 0 ) x 0 , X , Y )(Xx(s0)Yy(s0))p(y(s0)x0,X,Y)

Isso está correto?

Pergunta 2: Para prever, o artigo que estou lendo indica que devo usar essa distribuição condicional e obter uma posterior distribuição , mas não tenho certeza de como obter a distribuição posterior para os parâmetros. Talvez eu possa usar a distribuição que eu acho é exatamente o mesmo que e, em seguida, basta usar o teorema de Bayes para obterP ( μ , T , & Phi; | x ( s 0 ) , Y , X ) ( X x ( s 0 ) Y ) p ( X , X ( s 0 ) , Y | u , t , φ ) pp(y(s0)x0,X,Y)p(μ,T,ϕx(s0),Y,X)(Xx(s0)Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕ)

Pergunta 3: No final do subcapítulo, o autor diz o seguinte:

Para previsão, não temos . Isso não cria novos problemas, pois pode ser tratado como uma variável latente e incorporada ao Isso resulta apenas em um empate adicional dentro de cada iteração Gibbs e é uma adição trivial à tarefa computacional. xX(s0)x

O que esse parágrafo significa?

A propósito, esse procedimento pode ser encontrado neste documento (página 8), mas como você pode ver, preciso de um pouco mais de detalhes.

Obrigado!


Votou para migrar por solicitação de OP .

Eu diria correto para ambas as respostas às perguntas 1 e 2. A pergunta 3 significa que o não observado é tratado como um parâmetro adicional, além de , usando o condicional completo como anteriormente em . X(s0)μ,T,ϕ
p(x(s0)X,,Y,μ,T,ϕ)
X(s0)
Xian

Respostas:


2

Pergunta 1: Dado seu modelo de probabilidade conjunta a distribuição condicional de fornecido também é Normal, com média e matriz de variância-covariância

(XY)N((μ11μ21),[Σ11Σ12Σ21Σ22])=N((μ11μ21),TH(ϕ))
YX
μ2+Σ21Σ111(Xμ1)
Σ22Σ21Σ111Σ21.
(Essas fórmulas são copiadas literalmente da página da Wikipedia em normais multivariadas .) O mesmo se aplica a desde é outro vetor Normal.p(y(s0)x(s0),X,Y)(y(s0),x(s0),X,Y)

Pergunta 2: O preditivo é definido como ou seja, integrando os parâmetros usando a distribuição posterior desses posteriores, dados os dados atuais . Portanto, há um pouco mais na resposta completa. Obviamente, se você precisar simular apenas a partir do preditivo, sua noção de simular em conjunto a partir de e então de é válido.p(y(s0)x(s0),X,Y)

p(y(s0)|x(s0),X,Y)=p(y(s0)|x(s0),X,Y,μ,T,ϕ)p(μ,T,ϕ|x(s0),X,Y)dμdTdϕ,
(X,Y,x(s0))p(μ,T,ϕX,x(s0),Y)p(y(s0)x(s0),X,Y,μ,T,ϕ)

Pergunta 3: No caso em que não é observado, o par pode ser previsto a partir de outra previsão x(s0)(x(s0),y(s0))

p(x(s0),y(s0)X,Y)=p(x(s0),y(s0)X,Y,μ,T,ϕ)p(μ,T,ϕX,Y)dμdTdϕ.

Ao simular a partir dessa previsão, por não estar disponível de forma gerenciável, é possível executar um amostrador Gibbs que simula iterativamente

  1. μX,Y,x(s0),y(s0),T,ϕ
  2. TX,Y,x(s0),y(s0),μ,ϕ
  3. ϕX,Y,x(s0),y(s0),T,μ
  4. x(s0)X,Y,y(s0),ϕ,T,μ
  5. y(s0)X,Y,x(s0),ϕ,T,μ

ou mescle as etapas 4 e 5 em uma única etapa

  • x(s0),y(s0)X,Y,ϕ,T,μ
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.