"Qual é a maneira correta mais teórica da informação / física para calcular a entropia de uma imagem?"
Uma pergunta excelente e oportuna.
Ao contrário da crença popular, é realmente possível definir uma entropia de informação intuitiva (e teoricamente) natural para uma imagem.
Considere a seguinte figura:
Podemos ver que a imagem diferencial possui um histograma mais compacto, portanto sua entropia de informações de Shannon é menor. Portanto, podemos obter redundância mais baixa usando a entropia de Shannon de segunda ordem (ou seja, entropia derivada de dados diferenciais). Se podemos estender essa ideia isotropicamente para 2D, podemos esperar boas estimativas para a entropia de informações da imagem.
Um histograma bidimensional de gradientes permite a extensão 2D.
Podemos formalizar os argumentos e, de fato, isso foi concluído recentemente. Recapitulando brevemente:
A observação de que a definição simples (ver, por exemplo, a definição de entropia de imagem do MATLAB) ignora a estrutura espacial é crucial. Para entender o que está acontecendo, vale a pena retornar brevemente ao caso 1D. Há muito se sabe que o uso do histograma de um sinal para calcular sua informação / entropia de Shannon ignora a estrutura temporal ou espacial e fornece uma estimativa pobre da compressibilidade ou redundância inerente ao sinal. A solução já estava disponível no texto clássico de Shannon; use as propriedades de segunda ordem do sinal, ou seja, probabilidades de transição. A observação em 1971 (Rice & Por exemplo, o melhor preditor de um valor de pixel em uma varredura de varredura é o valor do pixel anterior imediatamente leva a um preditor diferencial e a uma entropia de Shannon de segunda ordem que se alinha com idéias simples de compactação, como codificação de duração da execução. Essas idéias foram refinadas no final dos anos 80, resultando em algumas técnicas clássicas de codificação de imagem sem perda (diferencial) que ainda estão em uso (PNG, JPG sem perda, GIF, JPG sem perda 2000), enquanto wavelets e DCTs são usados apenas para codificação com perda.
Movendo-se agora para 2D; os pesquisadores acharam muito difícil estender as idéias de Shannon para dimensões mais altas sem introduzir uma dependência de orientação. Intuitivamente, podemos esperar que a entropia de informações de Shannon de uma imagem seja independente de sua orientação. Também esperamos que imagens com estrutura espacial complicada (como o exemplo de ruído aleatório do interlocutor) tenham maior entropia de informações do que imagens com estrutura espacial simples (como o exemplo de escala de cinza suave do interlocutor). Acontece que a razão pela qual foi tão difícil estender as idéias de Shannon de 1D para 2D é que existe uma assimetria (unilateral) na formulação original de Shannon que impede uma formulação simétrica (isotrópica) em 2D. Uma vez corrigida a assimetria 1D, a extensão 2D pode prosseguir com facilidade e naturalidade.
Indo direto ao assunto (os leitores interessados podem conferir a exposição detalhada na pré-impressão do arXiv em https://arxiv.org/abs/1609.01117 ), onde a entropia da imagem é calculada a partir de um histograma 2D de gradientes (função de densidade de probabilidade do gradiente).
Primeiro, o pdf 2D é calculado por estimativas binning das imagens x e y derivadas. Isso se assemelha à operação de escaneamento usada para gerar o histograma de intensidade mais comum em 1D. As derivadas podem ser estimadas por diferenças finitas de 2 pixels calculadas nas direções horizontal e vertical. Para uma imagem quadrada NxN f (x, y), calculamos os valores NxN da derivada parcial fx e os valores NxN de fy. Escaneamos a imagem diferencial e para cada pixel que usamos (fx, fy) para localizar uma bandeja discreta na matriz de destino (pdf em 2D), que é incrementada em um. Repetimos para todos os pixels NxN. O pdf 2D resultante deve ser normalizado para ter uma probabilidade geral de unidade (simplesmente a divisão por NxN alcança isso). O pdf 2D está pronto para a próxima etapa.
O cálculo da entropia de informação 2D de Shannon a partir do gradiente 2D pdf é simples. A fórmula clássica de soma logarítmica de Shannon se aplica diretamente, exceto por um fator crucial de metade, que se origina de considerações especiais de amostragem ilimitada em banda para uma imagem de gradiente (consulte o artigo do arXiv para obter detalhes). O meio fator torna a entropia 2D computada ainda mais baixa em comparação com outros métodos (mais redundantes) para estimar entropia 2D ou compressão sem perdas.
Sinto muito por não ter escrito as equações necessárias aqui, mas tudo está disponível no texto de pré-impressão. Os cálculos são diretos (não iterativos) e a complexidade computacional é da ordem (o número de pixels) NxN. A entropia de informação final computada de Shannon é independente da rotação e corresponde precisamente ao número de bits necessários para codificar a imagem em uma representação gradiente não redundante.
A propósito, a nova medida de entropia 2D prevê uma entropia (intuitivamente agradável) de 8 bits por pixel para a imagem aleatória e 0,000 bits por pixel para a imagem de gradiente suave na pergunta original.