Perguntas com a marcação «kullback-leibler»

Uma medida assimétrica de distância (ou dissimilaridade) entre distribuições de probabilidade. Pode ser interpretado como o valor esperado da razão de verossimilhança de log na hipótese alternativa.

1
Por que o posterior bayesiano se concentra em torno do minimizador da divergência de KL?
Considere o Bayesian posterior . Assintoticamente, seu máximo ocorre na estimativa MLE , que apenas maximiza a probabilidade .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Todos esses conceitos - priores Bayesianos, maximizando a probabilidade - parecem superprincípios e nada arbitrários. Não há um log à vista. No entanto MLE minimiza a divergência KL …


2
Índice de estabilidade populacional - divisão por zero
O índice de estabilidade populacional quantifica a alteração de uma distribuição de uma variável comparando amostras de dados em dois períodos de tempo. É muito comumente usado para medir mudanças nas pontuações. É calculado da seguinte forma: 1) A amostra do período base é discretizada. Geralmente é particionado em deciles …



3
Escolha a distribuição de probabilidade para maximizar a função de avaliação (no concurso de previsão de gripe do CDC)
Suponha que você tenha uma variável aleatória discreta com função de massa de probabilidade no suporte . Que função tal que maximiza Para evitar lidar com casos extremos, assuma .XXXp(x)=P(X=x)p(x)=P(X=x)p(x) = P(X=x)0,…,n0,…,n0,\ldots,nq(x)≥0q(x)≥0q(x)\ge 0∑nx=0q(x)=1∑x=0nq(x)=1\sum_{x=0}^n q(x) = 1E(log[q(X−1)+q(X)+q(X+1)])?E(log⁡[q(X−1)+q(X)+q(X+1)])? E(\log[q(X-1)+q(X)+q(X+1)])? P(X=0)=P(X=n)=0P(X=0)=P(X=n)=0P(X=0)=P(X=n)=0 Perguntas relacionadas: Eu acredito que o que maximiza a expectativa acima também …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.