Muitos de nós estamos familiarizados - ou pelo menos já ouvimos falar - da entropia de Shannon de uma variável aleatória, e todos os relacionados. medidas teóricas da informação, como entropia relativa, informações mútuas etc. Existem algumas outras medidas de entropia que são comumente usadas na ciência da computação e na teoria da informação, como a min-entropia de uma variável aleatória.
Comecei a ver essas chamadas entropias de Renyi com mais frequência enquanto navego na literatura. Eles generalizam a entropia de Shannon e a min-entropia e, de fato, fornecem todo um espectro de medidas entrópicas de uma variável aleatória. Trabalho principalmente na área de informação quântica, onde a versão quântica da entropia de Renyi também é considerada com bastante frequência.
O que realmente não entendo é por que eles são úteis. Ouvi dizer que muitas vezes é mais fácil trabalhar analiticamente do que dizer entropia ou min-entropia de Shannon / von Neumann. Mas eles também podem estar relacionados à entropia de Shannon / min-entropia também.
Alguém pode fornecer exemplos (clássicos ou quânticos) de quando usar entropias Renyi é "a coisa certa a fazer"? O que estou procurando é um "gancho mental" ou "modelo" para saber quando eu posso querer usar as entropias de Renyi.
Obrigado!