Respostas:
Vamos começar com a intuição. A inclinação do comum de regressão de mínimos quadrados de contra h ( X ) , para qualquer função h , é proporcional à covariância de h ( X ) e Y . A suposição é que todas as regressões são todas zero (não apenas lineares). Se você imagina ( X , Y ) representado por uma nuvem de pontos (realmente, uma nuvem de densidade de probabilidade), não importa como você a corta verticalmente e reordena as fatias (que realiza o mapeamento h), a regressão permanece zero. Isso implica que as expectativas condicionais de (que são a função de regressão) são todas constantes. Poderíamos mexer com as distribuições condicionais , mantendo as expectativas constantes, arruinando assim qualquer chance de independência. Portanto, devemos esperar que a conclusão nem sempre seja válida.
Existem contra-exemplos simples. Considere um espaço de amostra de nove elementos abstratos e uma medida discreta com probabilidade determinada por
Defina
Poderíamos exibir essas probabilidades como uma matriz
(com todas as entradas multiplicado por ) posicionadas em ambos os sentidos por os valores - 1 , 0 , 1 .
As probabilidades marginais são e F Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;
Isso foi construído para tornar a distribuição condicional de quando X = 0 diferente das outras distribuições condicionais para X = ± 1 . Você pode ver isso comparando a coluna do meio da matriz com as outras colunas. A simetria nas coordenadas Y e em todas as probabilidades condicionais mostra imediatamente que todas as expectativas condicionais são zero, de onde todas as covariâncias são zero, independentemente de como os valores associados de X possam ser reatribuídos às colunas.
Para aqueles que podem não se convencer, o contra-exemplo pode ser demonstrado através da computação direta - existem apenas funções que precisam ser consideradas e para cada uma delas a covariância é zero.