Amostras de ruído colorido (obtidas em momentos diferentes) geralmente
são variáveis aleatórias correlacionadas porque a função de autocorrelação do processo de ruído não é uma função delta, como no caso do ruído branco. Assim, se assumirmos um processo de média zero (geralmente se supõe que o ruído seja independente de sua cor), a covariância de dois sinais separados no tempo porτ segundos é
R ( τ) Onde R ( t ) =F- 1( S( f)é a função de autocorrelação do processo (transformada inversa de Fourier da densidade espectral de potência). Note que isso é possível paraR ( t )para zero para alguns valores det (por exemplo: R ( t ) = sinc( T )é uma função de autocorrelação válido), mas não pode ser zero para todos diferente de zerot.
Quanto à função de densidade de qualquer amostra, se o processo for gaussiano, a amostra é gaussiana, mesmo que o processo tenha sido filtrado com um filtro linear antes da amostragem. Mas se o processo não é
gaussiano (digamos, LaPlacian), então, embora cada amostra seja LaPlacian, o mesmo não pode ser dito geralmente sobre amostras do processo após a filtragem de qualquer tipo. Em outras palavras, o Gaussianity sobrevive à filtragem linear, o LaPlacism geralmente não.
Então, como funciona a estimativa de probabilidade máxima quando as amostras têm ruído correlacionado? Considere o caso em que desejamos estimar a média desconhecida de umN( μ , 1 ) variável aleatória e temos duas observações x e y. No caso padrão de observações independentes, a função de probabilidade é
L ( μ ) =1 12 πexp( -1 12[ ( x - μ)2+ ( y- μ)2] ) .
O estimador de máxima verossimilhança para
μ é o número
μ^
que maximiza
L ( μ ), que funciona como o número
μ^
que
minimiza ( x - μ)2+ ( y- μ)2. Este é um
quadrático em
μ
e a estimativa de máxima verossimilhança acaba sendo
μ^=x + y2. Quando as observações estão correlacionadas com o coeficiente de correlação
ρ, então
L ( μ ) =1 12 π1 -ρ2-----√exp( -1 121 -ρ2-----√[ ( x - μ)2- 2 ρ ( x - μ ) ( y- μ ) + ( y- μ)2] ) .
Mais uma vez, precisamos encontrar o
μ^ Onde
( x - μ)2- 2 ρ ( x - μ ) ( y- μ ) + ( y- μ)2tem um mínimo. Ainda temos um
quadrático em
μ mas agora temos termos como
x ynos coeficientes. o que
μ^ funciona para ser deixado para você trabalhar.
E se tivermos n observações onde n > 2? Todas as opções acima ainda se aplicam. Para ruído gaussiano de distribuição idêntica independente nas amostras, a média da amostra
n- 1∑EuxEu é a estimativa de probabilidade máxima de μ mas no caso de variáveis aleatórias gaussianas correlacionadas, temos problemas de minimização muito confusos, porque o quadrático que estamos tentando minimizar depende do inverso da matriz de covariância e o resultado é uma função não linear dos dados em vez de uma simples tarefa fácil de lembre-se do resultado como a média da amostra.
E se o barulho não for gaussiano? Os mesmos princípios se aplicam - configure a função de verossimilhança e descubra onde ela atinge seu valor máximo - mas os cálculos são um pouco diferentes, tudo dependendo do que você assume ou sabe que é a densidade conjunta das observações.