Por que os estatísticos não usam informações mútuas como medida de associação?


10

Eu já vi algumas conversas de não estatísticos em que eles parecem reinventar medidas de correlação usando informações mútuas em vez de regressão (ou testes estatísticos equivalentes / intimamente relacionados).

Entendo que há uma boa razão pela qual os estatísticos não adotam essa abordagem. Meu entendimento do leigo é que os estimadores de entropia / informação mútua tendem a ser problemáticos e instáveis. Presumo que o poder também seja problemático como resultado: eles tentam contornar isso alegando que não estão usando uma estrutura de teste paramétrica. Normalmente, esse tipo de trabalho não se preocupa com cálculos de potência, nem mesmo com intervalos de confiança / credibilidade.

Mas, para assumir a posição de advogado do diabo, a convergência lenta é tão grande quando os conjuntos de dados são extremamente grandes? Além disso, algumas vezes esses métodos parecem "funcionar" no sentido de que as associações são validadas por estudos de acompanhamento. Qual é a melhor crítica contra o uso de informações mútuas como medida de associação e por que não é amplamente usada na prática estatística?

edit: Além disso, existem bons documentos que cobrem essas questões?


3
O MI é uma medida de associação entre duas variáveis ​​discretas. Não é realmente tão comum uma configuração nas estatísticas gerais (pode estar em alguns subcampos especializados). Mas dentro desse cenário, vejo que é usado com bastante frequência. Certamente, quando encontro pessoas aplicadas usando a correlação de Pearson em conjuntos de dados discretos bivariados, aponto o MI para elas.
user603

11
Veja também stats.stackexchange.com/questions/1052/… No entanto, a discussão aqui já é, na minha opinião, boa ou melhor, então a pergunta usual sobre duplicatas é discutível.
Nick Cox

Também para referências, consulte stats.stackexchange.com/q/20011/1036 #
Andy W

2
Uma outra referência geral é Matthew Reimherr e Dan L. Nicolae. 2013. Sobre Quantificar Dependência: Uma Estrutura para o Desenvolvimento de Medidas Interpretáveis. Statistical Science 28: 116-130.
Nick Cox

Respostas:


4

Eu acho que você deve distinguir entre dados categóricos (discretos) e dados contínuos.

Para dados contínuos, a correlação de Pearson mede uma relação linear (monotônica) e a correlação de classificação uma relação monotônica.

O MI, por outro lado, "detecta" qualquer relacionamento. Normalmente, não é disso que você está interessado e / ou é provável que seja ruído. Em particular, você deve estimar a densidade da distribuição. Mas, como é contínuo, você primeiro cria um histograma [caixas discretas] e depois calcula o MI. Porém, como o MI permite qualquer relacionamento, o MI mudará conforme você usar caixas menores (ou seja, para permitir mais manobras). Portanto, você pode ver que a estimativa do IM será muito instável, não permitindo que você coloque intervalos de confiança na estimativa etc. o MI.

Os dados categóricos, por outro lado, se encaixam perfeitamente na estrutura do MI (consulte o teste G) e não há muito o que escolher entre o teste G e o qui-quadrado.


Refiro-me principalmente a casos de associação discreta (por regressão, eu tinha GLMs em mente, não apenas OLS). Na verdade, muitos cientistas estudando fenômenos complexos (por exemplo, genética) podem dizer que estão mais interessados ​​apenas no que você está descrevendo (detectar qualquer relacionamento). A atração de escapar da óbvia crítica comum de "e se a forma funcional da correlação estiver errada? É claro que quero detectar qualquer relacionamento!" é forte. No entanto, acho que há uma falácia sem almoço grátis em jogo aqui, mas isso seria esquecido e estou tentando articular / entender melhor.
user4733

11
... Eu não estava ciente da relação entre os testes de LR e o MI, isso é muito interessante!
user4733
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.