Independência estatística significa falta de causalidade?


40

Duas variáveis ​​aleatórias A e B são estatisticamente independentes. Isso significa que no DAG do processo: e, é claro, . Mas isso também significa que não há porta da frente de B para A?(AB)P(A|B)=P(A)

Porque então devemos obter . Então, se for esse o caso, independência estatística significa automaticamente falta de causalidade?P(A|do(B))=P(A)

Respostas:


37

Então, se for esse o caso, independência estatística significa automaticamente falta de causalidade?

Não, e aqui está um exemplo simples de contador com um normal multivariado,

set.seed(100)
n <- 1e6
a <- 0.2
b <- 0.1
c <- 0.5
z <- rnorm(n)
x <- a*z + sqrt(1-a^2)*rnorm(n)
y <- b*x - c*z + sqrt(1- b^2 - c^2 +2*a*b*c)*rnorm(n)
cor(x, y)

Com o gráfico correspondente,

insira a descrição da imagem aqui

Aqui temos que e são marginalmente independente (no caso normal multivariada, correlação zero implica a independência). Isso acontece porque o caminho da porta traseira via cancela exatamente o caminho direto de para , ou seja, . Assim, . No entanto, causa diretamente , e temos , que é diferente de .xyzxycov(x,y)=bac=0.10.1=0E[Y|X=x]=E[Y]=0xyE[Y|do(X=x)]=bxE[Y]=0

Associações, intervenções e contrafactuais

Eu acho que é importante fazer alguns esclarecimentos aqui sobre associações, intervenções e contrafactuais.

Modelos causais envolvem afirmações sobre o comportamento do sistema: (i) sob observações passivas, (ii) sob intervenções e (iii) contrafatuais. E a independência em um nível não se traduz necessariamente no outro.

Como mostra o exemplo acima, não podemos ter associação entre e , ou seja, , e ainda assim o caso de manipulações em alterar a distribuição de , ou seja, .XYP(Y|X)=P(Y)XYP(Y|do(x))P(Y)

Agora, podemos dar um passo adiante. Podemos ter modelos causais em que intervir em não altera a distribuição populacional de , mas isso não significa falta de causação contrafactual! Ou seja, mesmo que , para cada indivíduo, seu resultado teria sido diferente se você tivesse alterado o dele . Este é precisamente o caso descrito por user20160, bem como na minha resposta anterior aqui.XYP(Y|do(x))=P(Y)YX

Esses três níveis formam uma hierarquia de tarefas de inferência causal , em termos das informações necessárias para responder a consultas em cada um deles.


11
Obrigado, é exatamente o que eu estava procurando. Então, acho que minha confusão foi causada (sem trocadilhos) ao pensar que independência estatística também significa separação D entre as duas variáveis. Mas isso só funciona ao contrário, correto?
User1834069

@ user1834069 isso mesmo, a separação d implica independência, mas a independência não implica a separação d. Estes dois são exemplos em que a distribuição é infiel ao gráfico e você pode ver que depende da escolha da parametrização. Se alterarmos os parâmetros, a dependência aparecerá novamente.
Carlos Cinelli

Belo exemplo. Se bem me lembro, essa é uma das suposições não testáveis ​​da mineração de dados causais a partir de dados observacionais. Para modelos lineares no SEM, o livro de Pearl também menciona que o conjunto de coeficientes que resultam em uma distribuição infiel é da medida 0.
Vimal

37

Suponha que tenhamos uma lâmpada controlada por dois interruptores. Deixe e o estado dos comutadores, que podem ser 0 ou 1. Deixe denotar o estado da lâmpada, que pode ser 0 (desativado) ou 1 (ativado). Montamos o circuito de modo que a lâmpada acenda quando os dois interruptores estiverem em estados diferentes e desligue quando eles estiverem no mesmo estado. Portanto, o circuito implementa a função ou exclusiva: .S1S2LL=XOR(S1,S2)

Por construção, está causalmente relacionado a e . Dada qualquer configuração do sistema, se apertarmos um botão, o estado da lâmpada mudará.LS1S2

Agora, suponha que os dois comutadores sejam acionados independentemente, de acordo com um processo de Bernoulli, onde a probabilidade de estar no estado 1 é 0,5. Portanto, e e são independentes. Nesse caso, sabemos pelo projeto do circuito que e, além disso, . Ou seja, saber o estado de um comutador não nos diz nada sobre se a lâmpada será ligada ou desligada. Portanto, e são independentes, assim como e .p(S1=1)=p(S2=1)=0.5S1S2P(L=1)=0.5p(LS1)=p(LS2)=p(L)LS1LS2

Mas, como acima, está causalmente relacionado a e . Portanto, independência estatística não implica falta de causalidade.LS1S2


2
usuário, você está certo de que este exemplo tem causalidade com falta de dependência, como explico aqui stats.stackexchange.com/questions/26300/… , mas neste exemplo também temos que , por isso não responde diretamente à pergunta do OP. P(L|do(S1))=P(L)
Carlos Cinelli

usuário, pergunta por favor: e quanto a ? Ou seja, é igual a também? Pessoalmente, acho que, para qualquer , , mas . Estou certo? (Vejo que não está realmente relacionado, mas quero verificar novamente meu entendimento)p(L|S1,S2)p(L)(vL,v1,v2){0,1}3p(L=vL|S1=v1)=p(L=vL|S2=v2)=0.5 p(L=vL|S1=v1,S2=v2){0,1}
homem das cavernas

0

Com base na sua pergunta, você pode pensar assim:

P(AB)=P(A)P(B) quando e são independentes. Da mesma forma, você pode sugerirAB

P(AB)/P(A)=P(B|A)=P(B) . Além disso,

P(AB)/P(B)=P(A|B)=P(A) .

A esse respeito, acredito que independência significa falta de causalidade. No entanto, dependência não implica necessariamente causalidade.


2
Estou perguntando se significa que ? (usando a notação Pearl Do-calculus)P ( A | d o ( B ) ) = P ( A )P(AB)=P(A)P(B)P(A|do(B))=P(A)
user1834069
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.