Conheço o trabalho de Shannon com entropia, mas ultimamente tenho trabalhado em estruturas de dados sucintas nas quais a entropia empírica é frequentemente usada como parte da análise de armazenamento.
Shannon definido a entropia da informação produzida por uma fonte de informação discreta como , onde é a probabilidade do evento ocorrendo, por exemplo, um caracter específico gerado, e existem k possíveis eventos. i k
Como apontado por MCH nos comentários, a entropia empírica é a entropia da distribuição empírica desses eventos e, portanto, é dada por onde é o número de ocorrências observadas de evento e é o número total de eventos observados. Isso é chamado entropia empírica de ordem zero de ordem zero . A noção de Shannon de entropia condicional tem uma versão empírica similar de ordem superior .
Shannon não usou o termo entropia empírica, embora ele certamente mereça parte do crédito por esse conceito. Quem usou essa idéia pela primeira vez e quem primeiro usou o nome (muito lógico) da entropia empírica para descrevê-la?