A divergência de Kullback-Leibler é uma métrica para comparar duas funções de densidade de probabilidade, mas que métrica é usada para comparar dois e GP ?
A divergência de Kullback-Leibler é uma métrica para comparar duas funções de densidade de probabilidade, mas que métrica é usada para comparar dois e GP ?
Respostas:
Observe que a distribuição dos processos gaussianos é a extensão do gaussiano multivariado para possivelmente possivelmente infinito . Portanto, você pode usar a divergência de KL entre as distribuições de probabilidade GP integrando over :X R X
Você pode usar métodos de MC para aproximar numericamente essa quantidade em um intervalo discreto. amostrando repetidamente os processos de acordo com sua distribuição de GP. Não sei se a velocidade de convergência é suficientemente boa ...
Observe que se é finito com , você volta à divergência KL usual para distribuições normais multivariadas: | X | = N D K L ( L P ( μ 1 , K 1 ) , L P ( μ 2 , K 2 ) ) = 1
Recordar que se é um processo normal de média função m e função de covariância K , então, para cada t 1 , ... , t k ∈ T , o vector aleatório ( X ( t 1 ) , ... , X ( t k ) ) tem uma distribuição normal multivariada com vetor médio ( m ( t 1 ) , … , m e matriz de covariância Σ = ( σ i j ) = ( K ( t i , t j ) ) , onde usamos a abreviação comum X ( t ) = X ( t , .
Cada realização é uma função real cujo domínio é o índice set T . Suponha que T = [ 0 , 1 ] . Dados dois Processos Gaussianos X e Y , uma distância comum entre duas realizações X ( e Y ( é sup t ∈ [ 0 , 1 ] | X ( t , ω ) - Y ( t , ω ) | . Portanto, parece natural definir a distância entre os dois processos X e Y como d ( X , Y ) = E Não sei se existe uma expressão analítica para essa distância, mas acredito que você pode calcular uma aproximação de Monte Carlo da seguinte maneira. Corrija uma grade fina 0 ≤ t 1 < ⋯ < t k ≤ 1 e colete amostras ( x i 1 , … , x i k ) e ( y i 1 , … , y i k ) dos vetores aleatórios normais ( X ( t 1 )