Does


9

Does implica independência de X e Y ?Cov(f(X),Y)=0f(.)XY

Eu sou apenas familiarizado com o seguinte definição de independência entre e Y .XY

fx,y(x,y)=fx(x)fy(y)

11
Você precisa de , não apenas C o v ( f ( X ) , Y ) = 0Cov(f(X),g(Y))=0 for all (measurable) f(),g()Cov(f(X),Y)=0f()
Dilip Sarwate

Respostas:


7

Vamos começar com a intuição. A inclinação do comum de regressão de mínimos quadrados de contra h ( X ) , para qualquer função h , é proporcional à covariância de h ( X ) e Y . A suposição é que todas as regressões são todas zero (não apenas lineares). Se você imagina ( X , Y ) representado por uma nuvem de pontos (realmente, uma nuvem de densidade de probabilidade), não importa como você a corta verticalmente e reordena as fatias (que realiza o mapeamento hYh(X)hh(X)Y(X,Y)h), a regressão permanece zero. Isso implica que as expectativas condicionais de (que são a função de regressão) são todas constantes. Poderíamos mexer com as distribuições condicionais , mantendo as expectativas constantes, arruinando assim qualquer chance de independência. Portanto, devemos esperar que a conclusão nem sempre seja válida.Y

Existem contra-exemplos simples. Considere um espaço de amostra de nove elementos abstratos e uma medida discreta com probabilidade determinada por

Ω={ωEu,j-1 1Eu,j,1 1}

P(ω0 0,0 0)=0 0; P(ω0 0,j)=1 1/5(j=±1 1); P(ωEu,j=1 1/10) de outra forma.

Defina

X(ωEu,j)=j, Y(ωEu,j)=Eu.

Poderíamos exibir essas probabilidades como uma matriz

(1 121 11 10 01 11 121 1)

(com todas as entradas multiplicado por ) posicionadas em ambos os sentidos por os valores - 1 , 0 , 1 .1 1/10-1 1,0 0,1 1

As probabilidades marginais são e F Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;

fX(-1 1)=fX(1 1)=3/10;fX(0 0)=4/10
tal como calculado pela soma das colunas e as somas de fileira da matriz, respectivamente. Desde f X ( 0 ) f Y ( 0 ) = ( 4 / 10 ) ( 2 / 10 ) 0 = P ( ω 0 , 0 ) = F X Y ( 0 , 0 ) , estas variáveis não são independentes.
fY(-1 1)=fY(1 1)=4/10;fY(0 0)=2/10,
fX(0 0)fY(0 0)=(4/10)(2/10)0 0=P(ω0 0,0 0)=fXY(0 0,0 0),

Isso foi construído para tornar a distribuição condicional de quando X = 0 diferente das outras distribuições condicionais para X = ± 1 . Você pode ver isso comparando a coluna do meio da matriz com as outras colunas. A simetria nas coordenadas Y e em todas as probabilidades condicionais mostra imediatamente que todas as expectativas condicionais são zero, de onde todas as covariâncias são zero, independentemente de como os valores associados de X possam ser reatribuídos às colunas.YX=0 0X=±1 1YX

Para aqueles que podem não se convencer, o contra-exemplo pode ser demonstrado através da computação direta - existem apenas funções que precisam ser consideradas e para cada uma delas a covariância é zero.27

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.