A forma mais simples da CLT teórica da informação é a seguinte:
Seja como iid com média e variação . Seja a densidade da soma normalizada e seja a densidade gaussiana padrão. Então o CLT teórico da informação afirma que, se é finito para alguns n , então D (f_n \ | \ phi) \ para 0 como n \ to \ infty .
Certamente, essa convergência, em certo sentido, é "mais forte" do que as convergências bem estabelecidas na literatura, convergência em distribuição e convergência em -métrica, graças à desigualdade de Pinsker . Ou seja, convergência na divergência KL implica convergência na distribuição e convergência na distância .
Eu gostaria de saber duas coisas.
O que há de tão bom no resultado ?
É apenas por causa do motivo declarado no terceiro parágrafo que dizemos que a convergência na divergência KL ( ou seja , ) é mais forte?
NB: Eu fiz essa pergunta há algum tempo em math.stackexchange, onde não obtive resposta.