Suponha que você tenha um conjunto de dados de uma distribuição contínua com densidade suportada em que não é conhecido, mas é muito grande, portanto, uma densidade de kernel (por exemplo) a estimativa, , é bastante precisa. Para uma aplicação específica, preciso transformar os dados observados em um número finito de categorias para gerar um novo conjunto de dados com uma função de massa implícita .p ( Y ) Z 1 , . . . , Z n g ( z )
Um exemplo simples seria quando e quando . Nesse caso, a função de massa induzida seria
Os dois "parâmetros de ajuste" aqui são o número de grupos, , e o vetor de comprimento (m-1) dos limites \ lambda . Denote a função de massa induzida por \ hat {g} _ {m, \ lambda} (y) .( m - 1 ) λ g m , λ ( y )
Eu gostaria de um procedimento que responda, por exemplo, "Qual é a melhor escolha de para que aumentar o número de grupos para (e escolher o \ lambda ideal lá) traga uma melhoria insignificante?" . Sinto que talvez seja possível criar uma estatística de teste (talvez com a diferença na divergência de KL ou algo semelhante) cuja distribuição possa ser derivada. Alguma idéia ou literatura relevante?
Edit: Eu tenho medições temporais espaçadas uniformemente de uma variável contínua e estou usando uma cadeia de Markov não homogênea para modelar a dependência temporal. Francamente, cadeias de markov de estados discretos são muito mais fáceis de manusear e essa é a minha motivação. Os dados observados são porcentagens. Atualmente, estou usando uma discretização ad hoc que me parece muito boa, mas acho que esse é um problema interessante em que uma solução formal (e geral) é possível.
Edit 2: Minimizar realmente a divergência de KL seria equivalente a não discretizar os dados, de modo que a ideia está totalmente fora de questão. Eu editei o corpo de acordo.