Entropia de Shannon para uma imagem


7

A entropia de Shannon [plog (1 / p)] para uma imagem é um método probabilístico para comparar dois pixels ou um grupo de pixels. Suponha que uma imagem com uma matriz de 3x3 tenha valores de intensidade de pixel

1 1 2
2 3 3
4 4 5

e outra imagem com matriz 3x3 tem grupo de pixels com valores de intensidade

5 5 6
6 7 7
8 8 9

A entropia de shannon para as imagens seria a mesma. Nesse caso, os valores de entropia indicariam que as imagens são as mesmas, embora sejam reais diferentes. Portanto, a correspondência de imagens usando essa técnica não ajuda. Eu classifico uma imagem com base em bancos de dados treinados da entropia de Shannon, usamos o conceito de entropia para encontrar semelhança entre duas imagens. Existe algum método ou trabalho de pesquisa em que essa entropia possa ser usada ou modificada para a correspondência de imagens no caso acima ..?


6
De onde você tirou a ideia de que, se a entropia de Shannon para duas coisas fosse a mesma, elas teriam que ser iguais? Este não é o ponto da entropia de Shannon. Um ponto da entropia de Shannon é descobrir quanto você pode compactar dados.
Peter Shor

Mas, com base na classificação supervisionada, em que classifico uma imagem com base em bancos de dados treinados da entropia de shannon, usamos o conceito de entropia para encontrar semelhança entre duas imagens. Também estou fazendo um projeto de pesquisa com o mesmo conceito. Peter pode ter conhecimento de que isso não é bom o suficiente. Você deve ler mais sobre isso antes de comentar.
Soumajyoti 7/10/12

5
Se você tiver dado algumas referências, talvez espere que alguém leia mais antes de comentar. No momento, não vejo como você poderia esperar que alguém saísse e pesquisasse os fatos que você deixou de fora da sua pergunta.
Peter Shor

2
@Soumajyoti Talvez esses pesquisadores tentem muitas funções e inspecionem sua adequação como impressões digitais. Semelhante ao MD5 ou a outros hashes, essas funções não são injetivas e não precisam ser: você pode distinguir imagens muito diferentes rapidamente e precisa fazer coisas mais caras apenas raramente.
Raphael

11
A entropia de Shannon também pode detectar a "inclinação" de uma imagem nos documentos. Não tenho certeza se pode ser usado para comparar imagens.
Mckdbrd

Respostas:


5

A entropia de Shannon funciona como uma função de hash ou impressão digital aqui; elas não são injetivas, o que significa que devemos ter cuidado para não interpretar demais as relações de valores.

Se , em seguida, as imagens e certamente não são o mesmo.H(Eu1 1)H(Eu2)Eu1 1Eu2

Se (ou mesmo ), no entanto, nada sabemos. As imagens podem ser semelhantes, mas os valores também podem estar próximos devido à não injetividade.H(Eu1 1)=H(Eu2)H(Eu1 1)H(Eu2)

Gostaríamos de ter alguma suavidade, ou seja, duas imagens são mais diferentes seé maior. Se esse é o caso, certamente é um critério de qualidade para essas funções de impressão digital. Dado o seu exemplo, não parece que a entropia tenha sido uma boa impressão digital nesse sentido.|H(Eu1 1)-H(Eu2)|

Seria confuso se houvesse algum tipo de entropia. Qualquer retângulo de uma cor não possui informações (entropia zero), mas dois retângulos de cores diferentes são tão diferentes quanto duas imagens.


2

Eu acho que é uma ideia incrível. Mas você não poderá mais usá-lo para a correspondência de imagens do que espera que uma imagem de "ruído branco" corresponda a outra. Mas é uma ótima idéia para encontrar categorias semelhantes de imagens.


Seria ótimo obter mais detalhes sobre por que o ruído branco corresponde a outro. Por favor, forneça algumas evidências.
Léo Léopold Hertz,

2

Uma abordagem relacionada seria calcular um histograma das intensidades de pixel para cada uma das duas imagens e comparar esses dois histogramas. Mais tipicamente, calcularíamos um histograma de alguma medida de cor (por exemplo, o matiz), em vez de intensidades de pixel. Essa é uma medida grosseira que, às vezes, pode ser útil: por exemplo, para distinguir uma imagem de uma sala de uma imagem de outra (por exemplo, se suas paredes são pintadas com cores diferentes ou se têm uma distribuição diferente de cores).

Existem muitas maneiras de comparar dois histogramas. Você pode pensar em cada histograma como uma distribuição para alguma variável aleatória e comparar as duas distribuições usando vários métodos. Por exemplo, você pode compará-los usando divergência de KL. Outra abordagem é usar qualquer medida de distância padrão em espaços vetoriais, por exemplo, oeu2medida (soma das diferenças ao quadrado). Muitas vezes, você deseja agrupar os valores primeiro, antes de calcular o histograma.

Veja também


Você pode fornecer alguma evidência sobre a abordagem do histograma com alguns dados de amostra. Estou realmente interessado no uso da norma L2, que acho que não será suficiente na maioria dos casos.
Léo Léopold Hertz,
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.