Respostas:
O livro de Cover e Thomas, Elements of Information Theory, é uma boa fonte sobre entropia e suas aplicações, embora eu não saiba que ele trata exatamente dos problemas que você tem em mente.
Essas notas de aula sobre teoria da informação de O. Johnson contêm uma boa introdução a diferentes tipos de entropia.
Se você estiver interessado na estatística matemática em torno da entropia, consulte este livro
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
está disponível gratuitamente!
A entropia é apenas uma (como conceito) - a quantidade de informações necessárias para descrever algum sistema; existem apenas muitas generalizações. A entropia de amostra é apenas um descritor semelhante a entropia usado na análise da frequência cardíaca.
O artigo de Grünwald e Dawid: teoria dos jogos, entropia máxima, discrepância mínima e teoria robusta da decisão bayesiana discutem generalizações da noção tradicional de entropia. Dada uma perda, sua função de entropia associada é o mapeamento de uma distribuição para a perda esperada alcançável mínima para essa distribuição. A função de entropia usual é a entropia generalizada associada à perda de log. Outras opções de perdas produzem entropia diferente, como a entropia de Rényi.