“ Existe alguma definição exata, ou seja, numérica, para a escarsidade? ” E por numérica , eu entendo tanto computável quanto praticamente “utilizável”. Minha opinião é a seguinte: ainda não, pelo menos, não há consenso, mas existem alguns candidatos dignos. A primeira opção " contar apenas termos diferentes de zero " é precisa, mas ineficiente (sensível à aproximação numérica e ao ruído e muito complexa para otimizar). A segunda opção "a maioria dos elementos de um sinal é zero ou quase zero " é bastante imprecisa, tanto em "mais" quanto em "próximo a".
Portanto, " uma medida exata da esparsidade " permanece ilusória, sem aspectos mais formais. Uma tentativa recente de definir a dispersão realizada em Hurley e Rickard, 2009 Comparando Medidas de Sparsidade , Transações IEEE sobre Teoria da Informação.
A idéia deles é fornecer um conjunto de axiomas que uma boa medida de escarsidade deve cumprir; por exemplo, um sinal x multiplicado por uma constante diferente de zero, α x , deve ter a mesma esparsidade. Em outros termos, uma medida de esparsidade deve ser 0 0 homogênea. Curiosamente, o proxy ℓ1 1 na detecção compressiva ou na regressão do laço é 1 1 homogêneo. Este é realmente o caso de toda norma ou quase-norma ℓp , mesmo que elas tendam à medida de contagem (não robusta) ℓ0 0 como p → 0 .
Então eles detalham seus seis axiomas, executam cálculos, tomados emprestados da análise de riqueza:
- Robin Hood (tirar dos ricos, dar aos pobres reduz a esparsidade),
- Escala (multiplicação constante preserva a escarsidade),
- Aumento da maré (adicionar a mesma conta diferente de zero reduz a escarsidade),
- Clonagem (duplicar dados preserva a escarsidade),
- Bill Gates (um homem que fica mais rico aumenta a esparsidade),
- Bebês (adicionar valores zero aumenta a esparsidade)
ℓ1 1/ ℓ2pq ℓp/ ℓqx0 < p ≤ q
1 ≤ ℓp( X )ℓq( X )≤ ℓ0 0( X )1 / p - 1 / q
1 1x
c( K )Cα. ( K )- αα