A covariância , como você pode imaginar, indica a tendência de duas variáveis co-variarem ou "se moverem" juntas. Se cov ( , ) é positiva, então os valores maiores de estão associadas com maiores valores de e menores valores de estão associados com menores valores de . Se a covariância for negativa, o oposto vale: s pequenos são associados a s maiores e vice-versa. Por exemplo, esperamos ver uma alta covariância entre salário e anos de experiência, mas uma covariância baixa ou negativa entre peso e velocidade de corrida máxima.Y X Y X Y X YXYXYXYXY
A covariância depende da escala (por exemplo, você terá uma covariância diferente se o peso for medido em quilogramas ou libras) e as unidades forem um pouco estranhas (anos-dólar e quilogramas-metro-por-segundo em nossos dois exemplos), então normalmente normalizamos as covariâncias dividindo por para obter correlação . A correlação é sem unidade e varia de -1 a 1, o que a torna uma medida útil de associações lineares . (Esse bit linear é uma ressalva muito importante!)σx⋅σy
Agora, suponha que tenhamos uma série de valores que são de alguma forma ordenados; estas são frequentemente, mas nem sempre, uma série temporal. A função de autocorrelação é a correlação entre o valor na posição / hora é com valores em outras posições ,( t - 1 ) ( t - 2 )t(t−1)(t−2), etc. Altas autocorrelações podem indicar que a série muda lentamente ou, equivalentemente, que o valor presente é previsível em relação aos valores anteriores. Embora variância e covariância sejam escalares (ou seja, valores únicos), a correlação automática é um vetor - você obtém um valor de correlação automática para cada "atraso" ou "intervalo". O ruído branco tem uma função de autocorrelação muito plana, pois é aleatório; as imagens naturais geralmente possuem autocorrelações espaciais amplas, já que os pixels próximos são geralmente de cor e brilho semelhantes. Um eco pode ter um pico próximo ao centro (já que os sons são auto-similares), uma região plana durante o silêncio e, em seguida, outro pico que constitui o próprio eco.
A correlação cruzada compara duas séries deslocando uma delas em relação à outra. Como a correlação automática, produz um vetor. O meio do vector é apenas a correlação entre e . A entrada anterior é a correlação entre uma cópia de deslocada levemente para um lado e Y; a entrada, depois o meio é a correlação entre uma cópia de ligeiramente deslocada para o outro lado e . (Se você conhece a convolução, isso é muito parecido). Se e forem cópias (possivelmente atrasadas) um do outro, eles terão uma função de correlação cruzada com um pico de 1,0 em algum lugar, com a localização do pico fornecida pelo atraso.Y X X Y X YXYXXYXY
Os auto-covariância e transversal covariância funções são como os seus equivalentes de correlação, mas fora de escala; é a mesma diferença entre covariância e correlação.
Uma densidade espectral de potência informa como a potência de um sinal é distribuída por várias frequências. O PSD do tom puro (ou seja, uma onda senoidal) é plano, exceto na frequência do tom; Sinais e sons naturalistas têm PSDs muito mais complicados, com harmônicos, sobretons, ressonância, etc. Está relacionado a outros conceitos, porque a transformação de Fourier da função de autocorrelação é o PSD.