Qual é a intuição por trás da independência de e , ?


18

Eu esperava que alguém pudesse propor um argumento explicando por que as variáveis ​​aleatórias e , com a distribuição normal padrão, são estatisticamente independentes. A prova desse fato decorre facilmente da técnica MGF, mas acho extremamente contra-intuitiva.Y1=X2X1Y2=X1+X2Xi

Eu apreciaria, portanto, a intuição aqui, se houver.

Agradeço antecipadamente.

EDIT : Os subscritos não indicam estatísticas da ordem, mas observações do IDI da distribuição normal padrão.


O que é a "técnica MGF"?
ameba diz Restabelecer Monica

@amoeba É o uso de funções geradoras de momento para determinar a distribuição de uma variável aleatória. No meu caso, refiro-me ao teorema de que e são independentes se e somente se , sendo igual a . Escolha qualquer outra técnica e estou confiante de que você chegará ao mesmo resultado. Y1Y2M(t1,t2)=M(t1,0)×M(0,t2)M(t1,t2)E(et1Y1+t2Y2)
JohnK

1
Você pode encontrar algumas dicas no encadeamento estreitamente relacionado em stats.stackexchange.com/questions/71260 .
whuber

Você pode ter alguma intuição, considerando o que acontece com cada um destes se você adicionar algumas constantes, digamos , a cada . E o que acontece se você multiplicar cada por uma constante, dizemμXXσ
RVL

Respostas:


22

Estes são dados distribuídos normais padrão: gráfico de dispersão no primeiro sistema de coordenadas Observe que a distribuição é circularmente simétrica.

Ao alternar para e , você efetivamente gira e dimensiona o eixo, da seguinte maneira: Este novo sistema de coordenadas tem a mesma origem que o original e o eixo é ortogonal. Devido à simetria circular, as variáveis ​​ainda são independentes no novo sistema de coordenadas.Y1=X2X1Y2=X1+X2gráfico de dispersão com sistema de coordenadas rotacionado


4
O resultado se aplica mesmo quando e estão correlacionados com as margens normais da unidade. Portanto, sua explicação cobre apenas uma subcaixa do resultado original. No entanto, a idéia básica aqui é sólida. X1X2
Glen_b -Reinstate Monica

1
@ Glen_b, sim, você está certo. Eu queria focar em um caso simples, pois JohnK já parece saber como provar o caso geral, mas carece da compreensão intuitiva.
Doiwan

7

O resultado funciona para conjunto normal (ou seja, com correlação, ), com comum .(X1,X2)1<ρ<1σ

Se você conhece alguns resultados básicos, é tudo o que precisa:

insira a descrição da imagem aqui

a abordagem de dobiwan é essencialmente boa - é apenas que o resultado é mais geral do que o caso tratado lá.


3
+1 para reduzir o resultado desejado ao essencial. Acrescentarei que, para o caso mais geral de normalidade articular com variações desiguais, uma rotação de eixos por vez de implícito em produz aleatória normal independente variáveis.
θ=12arctan(2ρσ1σ2σ12σ22)
±π4(X1,X2)(X1+X2.X1X2)
precisa saber é o seguinte

6

O resultado que você afirma ser verdadeiro geralmente não é verdadeiro, nem mesmo no caso em que tudo que se sabe é que e são variáveis ​​aleatórias normais com variação idêntica, mas o resultado é válido para a interpretação usual da condição que você declarou mais tarde:X1X2

Os subscritos não indicam Estatísticas da ordem, mas observações da distribuição normal padrão.

A interpretação usual das últimas palavras nesta declaração é, obviamente, que e são variáveis ​​aleatórias independentes (normais) e, portanto, variáveis ​​aleatórias comuns em conjunto .X1X2

Para variáveis ​​aleatórias normais comuns com variância idêntica, é verdade que e são variáveis ​​aleatórias independentes (normais) (com variações gerais desiguais) e a explicação intuitiva para isso é melhor dada na resposta de Glen_b. Para o seu caso especial de e serem independentes, a resposta de dobiwan, que você aceitou, é mais simples e, de fato, revela que qualquer rotação dos eixos, não apenas pelo implícita na transformação , produzirá variáveis ​​aleatórias independentes.X1+X2X1X2X1X2±π4(X1,X2)(X1+X2,X1X2)


O que pode ser dito em geral? Em tudo o que digo abaixo, lembre-se de que e têm a mesma variação , independentemente de outras propriedades que possam ser atribuídas a elas.XY

Se e são quaisquer variáveis aleatórias (Nota: Não necessariamente, normais) com variância idênticos, então e são não correlacionadas variáveis aleatórias (ou seja, eles têm covariância zero). Isso ocorre porque a função de covariância é bilinear : Aqui usamos o fato de que é apenas a variaçãoXYX+YXY

cov(X+Y,XY)=cov(X,X)cov(X,Y)+cov(Y,X)cov(Y,Y)=var(X)cov(X,Y)+cov(X,Y)var(Y)=0.
cov(X,X)var(X) de (e da mesma forma para ) e, é claro, . Observe que esse resultado é válido quando e são (marginalmente) variáveis ​​aleatórias normais, mas não necessariamente variáveis ​​aleatórias normais em conjunto . (Se você não está familiarizado com essa noção de normalidade marginal não ser a mesma que a normalidade das articulações, veja esta ótima resposta do cardeal). No caso especial, quando e são variáveis ​​aleatórias normais conjuntamente normais (mas não necessariamente independentes), o mesmo acontece com eXYcov(Y,X)=cov(X,Y)XYXYX+YXYconjuntamente normal e, como sua covariância é , e são variáveis ​​aleatórias independentes.0X+YXY

2

X1,X2Y1Y20Y1,Y2

A média condicional

X1+X2=yX1=x,X2=yxX1=yx,X2=x

X1X2X1+X2X1Y2=yX2Y2=y

E(Y1Y2=y)=E(X1X2X1+X2=y)=E(X1X1+X2=y)E(X2X1+X2=y)=0.

(Advertência: não considerei a possibilidade de a média condicional não existir.)

Média condicional constante implica zero correlação / covariância

Y1Y2Y2Y1Y1Y2

Cov(Y1,Y2)=E[(Y1E(Y1))(Y2E(Y2))]
Y2
=E[E[(Y1E(Y1))(Y2E(Y2))Y2]]=E[(Y2E(Y2))E[Y1E(Y1)Y2]].
Y2
=E[(Y2E(Y2))E[Y1E(Y1)]]
0
=E[(Y2E(Y2))×0]=0.

Independência

X1,X2Y1Y2X1,X2Y1,Y2

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.