Esta questão fornece uma definição quantitativa de entropia cruzada, em termos de sua fórmula.
Estou procurando uma definição mais fictícia, diz a wikipedia:
Na teoria da informação, a entropia cruzada entre duas distribuições de probabilidade mede o número médio de bits necessários para identificar um evento a partir de um conjunto de possibilidades, se um esquema de codificação for usado com base em uma determinada distribuição de probabilidade q, em vez da distribuição "verdadeira" p .
Enfatizei a parte que está me dando problemas para entender isso. Gostaria de uma boa definição que não exija entendimento separado (pré-existente) da Entropia.