"Como


9

Pergunta curta: por que isso é verdade?

Pergunta longa:

Muito simplesmente, estou tentando descobrir o que justifica essa primeira equação. O autor do livro que estou lendo (contexto aqui, se você quiser, mas não é necessário), afirma o seguinte:

Devido à suposição de quase gaussianidade, podemos escrever:

p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+i=1naiGi(ξ))

Onde é o PDF dos dados observados com entropia máxima, considerando que você apenas observou uma série de expectativas (números simples) c i , i = 1 . . . n , onde c i = E { G i ( ξ ) } e ϕ ( ξ ) é o PDF de uma variável gaussiana padronizada, ou seja, 0 média e variação de unidade.p0(ξ)ci,i=1...nci=E{Gi(ξ)}ϕ(ξ)

Onde tudo isso está acontecendo é que ele usa a equação acima como ponto de partida para tornar o PDF, mais simples, e entendo como ele faz isso, mas não entendo como ele justifica a equação acima, ou seja, O ponto de partida.p0(ξ)

Tentei ser breve para não ofuscar ninguém, mas se você quiser mais detalhes, entre em contato nos comentários. Obrigado!

Respostas:


12

(Nota: alterei sua para x .)ξx

Para uma variável aleatória com densidade p , se você tiver restrições G i ( x )Xp para i = 1 , , n , a densidade máxima de entropia é p 0 ( x ) = A exp ( n

Gi(x)p(x)dx=ci,
i=1,,n onde o
p0(x)=Aexp(i=1naiGi(x)),
's são determinadas a partir do c i ' s, e A é uma constante de normalização.aiciA

Nesse contexto, a aproximação gaussiana ("quase gaussianity") significa duas coisas:

1) Você aceita introduzir duas novas restrições: a média de é 0 e a variação é 1 (digamos);X01

2) O correspondente (ver abaixo) é muito maior do que o outro um i 's.an+2ai

Essas restrições adicionais são representadas como G

Gn+1(x)=x,cn+1=0,
produzindo p 0 ( x ) = A exp ( a n + 2 x 2 + a n + 1 x + n i
Gn+2(x)=x2,cn+2=1,
que pode ser reescrito como (apenas "adicione zero" ao expoente) p 0 ( x
p0(x)=Aexp(an+2x2+an+1x+i=1naiGi(x)),
levando ao que você deseja: p
p0(x)=Aexp(x22x22+an+2x2+an+1x+i=1naiGi(x)),
pronto para ser Taylor expandido (usando a segunda condição da aproximação gaussiana).
p0(x)=Aϕ(x)exp(an+1x+(an+2+12)x2+i=1naiGi(x));

Fazendo a aproximação como um físico (o que significa que não nos importamos com a ordem do termo de erro), usando , temos a densidade aproximada p 0exp(t)1+t

p0(x)Aϕ(x)(1+an+1x+(an+2+12)x2+i=1naiGi(x)).
Aai
p0(x)dx=1,xp0(x)dx=0,x2p0(x)dx=1
Gi(x)p0(x)dx=ci,i=1,,n,
Aai

Sem impor condições adicionais ao Gi

Gi é que podemos resolver o sistema.


μ=0σ2=1

p0(x)p0(x)

p0(x)

sim, ele está dizendo que a expressão final é: p0(z)ϕ(z)(1+i=1NciFi(z))

an+1x
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.