Distância de Mahalanobis entre duas distribuições bivariadas com covariâncias diferentes


8

A questão está praticamente contida no título. Qual é a distância de Mahalanobis para duas distribuições de matrizes de covariância diferentes? O que eu descobri até agora assume a mesma covariância para ambas as distribuições, ou seja, algo desse tipo:

ΔTΣ1Δ

E se eu tiver dois diferentes Σ s?

Nota: - O problema é este: existem duas distribuições bivariadas que têm as mesmas dimensões, mas que são rotacionadas e traduzidas uma em relação à outra (desculpe, eu venho de um fundo matemático puro, não de estatística). Preciso medir o grau de sobreposição / distância.

* Atualização: * O que pode ou não estar implícito no que estou perguntando é que preciso de uma distância entre os meios das duas distribuições. Eu sei onde os meios são, mas desde que as duas distribuições são rodados em relação um ao outro, eu preciso atribuir pesos diferentes para diferentes orientações e, portanto, a distância euclidiana simples entre os meios não funciona. Agora, como eu entendi, a distância de Mahalanobis não pode ser usada para medir essas informações se as distribuições tiverem formas diferentes (aparentemente, ela funciona com duas distribuições normais multivariadas de covariâncias idênticas, mas não no caso geral). Existe uma boa medida que codifique esse desejo de codificar orientações com pesos diferentes?


1
A distância de Mahalanobis não faz sentido quando as distribuições diferem. (É como dizer "Pedro vive em uma esfera e Paulo vive em um plano euclidiano; como calculamos a distância entre eles?") Talvez você possa dar um passo atrás e nos ajudar a entender a motivação da pergunta: o que exatamente você faz quer realizar aqui? Qual é o contexto estatístico?
whuber

Tudo bem, eu suspeitava muito. A razão pela qual pergunto é que vi a seguinte equação sendo usada para calcular uma distância de 'Mahalanobis', ou assim afirmava: Não tenho muita certeza de que seja uma Distância Mahalanobis; Estou apenas refletindo o que foi reivindicado. Uma distância Bhattacharya funcionaria melhor em seu lugar?
ΔT\(Σ1Σ2\)1Δ
Kristian D'Amato

@ k-damato A distância Mahalanobis mede a distância entre pontos, não distribuições.
vqv

Tudo bem, então alguém reconhece a equação acima como algo significativo? Os deltas são vetores de deslocamento.
Kristian D'Amato

@ Kristian Mesclei suas duas contas duplicadas. Por favor, use sua conta registrada a partir de agora.
7282 chl

Respostas:


6

Existem muitas noções de distância entre distribuições de probabilidade. Qual usar depende de seus objetivos. A distância total da variação é uma maneira natural de medir a sobreposição entre distribuições. Se você estiver trabalhando com normais multivariados, a divergência Kullback-Leibler é matematicamente conveniente. Embora na verdade não seja uma distância (como não é simétrica e não obedece à desigualdade do triângulo), ela limita mais a distância total da variação - veja Desigualdade de Pinsker .


2
algumas discussões recentes aqui se concentraram em modificações na divergência de KL que resultam em uma métrica adequada. Caso você esteja interessado, veja aqui e aqui .
cardeal

3

Introdução Como o @vqv mencionou Variação total e Kullback Leibler, são duas distâncias interessantes. O primeiro é significativo porque pode estar diretamente relacionado aos erros de primeiro e segundo tipo no teste de hipóteses. O problema com a distância total da variação é que pode ser difícil calcular. A distância de Kullback Leibler é mais fácil de calcular e chegarei a isso mais tarde. Não é simétrico, mas pode ser simétrico (de alguma forma um pouco artificial).

LP0,P1i=0,1 PiμiCi

LL2(P1/2)2

para um bem escolhido .P1/2

Em palavras simples :

  • pode haver diferentes rotações interessantes de "direções", obtidas usando sua fórmula com uma das matrizes de covariância "interpoladas" ( ou ) definidas no final deste post (o número é o que você propõe em seu comentário à sua pergunta). Σ=Ci,1/2i=1,2,3,455
  • Como suas duas distribuições têm covariâncias diferentes, não é suficiente comparar os meios , você também precisa comparar as covariâncias.

Deixe-me explicar por que esse é o meu sentimento, como você pode calcular isso no caso de e como escolher .C1C0P1/2

Caixa linear Se .C1=C0=Σ

σ=ΔΣ1Δ=2LL2(P1/2)2

onde é o "interpolar" entre e (gaussiano com covariância e média ). Observe que, neste caso, a distância de Hellinger, a distância total de variação pode ser escrita usando .P1/2P1P0Σ(μ1+μ0)/2σ

Como calcular no caso geralL A pergunta natural que surge da sua pergunta (e meu ) é o que é um "interpolate" natural entre e quando . Aqui a palavra natural pode ser específica do usuário, mas, por exemplo, pode estar relacionada à melhor interpolação para ter um limite superior apertado com outra distância (por exemplo, distância aqui )P1P0C1C0L1

Escrevendo ( ) pode ajudar a ver onde está a tarefa de interpolação, mas:

L=ϕ(Ci1/2(xμi))ϕ(Cj1/2(xμj))12log(CiCj)
i=0,j=1

L(x)=12Aij(xsij),xsijRp+Gij,xsijRpcij,[1]

com

Aij=CiCj,Gij=Sijmij,Sij=Ci+Cj2,
cij=18Aijmij,mijRp+12log|det(CjCi)|

e

mij=μiμjandsij=μi+μj2

é mais relevante para fins computacionais. Para qualquer gaussiano com média e covariância o cálculo de da Equação é um pouco técnico mas viável. Você também pode usá-lo para calcular a distância do Kulback leibler.P1/2s01CLL2(P1/2)21

Que interpolação devemos escolher (ou seja, como escolher )P1/2 É claramente entendido na Equação que existem muitos candidatos diferentes para (interpolação) no caso "quadrático". Os dois candidatos que achei "mais naturais" (subjetivos :)) surgem da definição de uma distribuição gaussiana com média :1P1/2t[0,1]Pttμ1+(1t)μ0

  1. Pt1 como a distribuição de (onde é extraído de ) que possui covariância ).
    ξt=tξ1+(1t)ξ0
    ξiPi i=0,1Ct,1=(tC11/2+(1t)C01/2)2
  2. Pt2 com covariância inversaCt,21=tC11+(1t)C01
  3. Pt3 com covariânciaCt,3=tC1+(1t)C0
  4. Pt4 com covariância inversaCt,41=(tC11/2+(1t)C01/2)2

EDIT: O que você propõe em um comentário à sua pergunta pode ser , por que não ...Ct,5=C1tC01t

Eu tenho minha escolha favorita, que não é a primeira :) não tenho muito tempo para discutir isso aqui. Talvez eu edite esta resposta mais tarde ...


2

Isso é antigo, mas para outros que estão lendo isso, a matriz de covariância reflete a rotação das distribuições gaussianas e a média reflete a tradução ou posição central da distribuição. Para avaliar a distância mahab, é simplesmente D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Agora, se você suspeitar que as duas distribuições bivariadas são iguais, mas suspeitar que foram rotacionadas, calcule os dois pares de vetores próprios e valores próprios para cada distribuição. Os autovetores apontam na direção da propagação dos dados bivariados ao longo dos eixos maiores e menores e os autovalores denotam o comprimento dessa propagação. Se os autovalores forem iguais, as duas distribuições são iguais, mas rotacionadas. Faça acos do produto escalar entre os autovetores para obter o ângulo de rotação.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.