eu2 distância, conforme sugerido em um comentário do usuário39665. Isto é:
Observe que, como visto, por exemplo, na seção 8.1.8 do livro de receitas da matriz :
para que isso possa ser avaliado facilmente em .eu2( P, Q )2= ∫( p ( x ) - q( x ) )2d x= ∫( ∑EuαEupEu( x ) - ∑jβjqj( x ) )2d x= ∑i , i′αEuαEu′∫pEu( x ) pEu′( x ) d x + ∑j , j′βjβj′∫qj( x ) qj′( x ) d x- 2 ∑i , jαEuβj∫pEu( x ) qj(x)dx.
∫ N ( x ; μ , Σ ) N ( x ; μ ′ , Σ ′ )∫N( x ; μ , Σ ) N( x ; μ′, Σ′)d x= N(μ ; μ′,Σ + Σ′)
O ( m n )
A discrepância média máxima (MMD) com um kernel Gaussian RBF. Essa é uma distância interessante, ainda não muito conhecida entre a comunidade de estatísticas, que requer um pouco de matemática para definir.
Deixando
defina o espaço de Hilbert como o espaço Hilbert do núcleo em reprodução correspondente a : .k ( x , y) : = exp( - 12 σ2∥ x - y∥2) ,
Hkk ( x , y)=⟨φ(x),φ(y)⟩H
Defina o kernel médio do mapa como
K(P,Q)=EX∼P,Y∼Qk(X,Y)=⟨EX∼Pφ(X),EY∼Qφ(Y)⟩.
O MMD é então
MMD(P,Q)=∥EX∼P[φ(X)]−EY∼Q[φ(Y)]∥=K(P,P)+K(Q,Q)−2K(P,Q)−−−−−−−−−−−−−−−−−−−−−−−−−√=supf:∥f∥H≤1EX∼Pf(X)−EY∼Qf(Y).
Para nossas misturas e , observe que
e da mesma forma para e .PQK( P, Q ) = ∑i , jαEuβjK( PEu, Qj)
K( P, P)K( Q , Q )
Acontece que, usando truques semelhantes aos de , é
eu2K( N( μ , Σ ) , N( μ′, Σ′) ))( 2 πσ2)d/ 2N( μ ; μ′, Σ + Σ′+ σ2Eu) .
Como , isso claramente converge para um múltiplo da distância . Normalmente, você deseja usar um diferente , um na escala da variação de dados.σ→ 0eu2σ
Os formulários fechados também estão disponíveis para os núcleos polinomiais no MMD; Vejok
Muandet, Fukumizu, Dinuzzo e Schölkopf (2012). Aprendendo com distribuições por meio de máquinas de medida de suporte. In Advances in Neural Information Processing Systems ( versão oficial ). arXiv: 1202.6504 .
Para muitas propriedades agradáveis dessa distância, consulte
Sriperumbudur, Gretton, Fukumizu, Schölkopf e Lanckriet (2010). Incorporações e métricas espaciais de Hilbert sobre medidas de probabilidade. Journal of Machine Learning Research, 11, 1517–1561 . arXiv: 0907.5309 .