Respostas:
Alguns motivos "no nível do intestino" por que é melhor trabalhar com a matriz de autocorrelação em vez de uma matriz com suas observações:
Por exemplo, vamos considerar duas abordagens para o ajuste do modelo de RA.
O erro de reconstrução quadrática empírica nos seus dados é:
onde é o vetor de coeficientes AR, x é seu vetor de observações e Γ a matriz com suas observações atrasadas. Você precisa encontrar o valor de um que minimize isso. Após a derivação e um pouco de embaralhamento, sua solução fica assim:
E você está ferrado porque não tem absolutamente nenhuma garantia de que pode ser invertido. No processo, falando numericamente, você teve que lidar com produtos matriciais razoavelmente grandes se tiver uma longa sequência de observações.
se você adaptar um ângulo de "processo aleatório" ao problema, a quantidade que você precisa minimizar (o valor esperado do erro) é:
E você acaba com a solução mais palatável:
Parece que seu problema é o da modelagem sinusoidal (em vez da modelagem de RA). Aqui há muita ação, mas o que eu disse sobre a modelagem de RA e os obstáculos ao uso da matriz de dados brutos; também se aplica à modelagem sinusoidal - com a decomposição do autovalor sendo a operação problemática em vez da inversão da matriz.
Primeiro, autovetores e autovalores são definidos para operadores. Correlação é uma operação.
Em segundo lugar, os autovetores da autocorrelação são particularmente interessantes porque explicam com mais eficiência a variação do sinal em uma regressão linear. Em outras palavras, para um número fixo de vetores, a seleção dos vetores próprios minimiza o erro quadrático médio em que o sinal é modelado como uma soma linear dos vetores. Essa técnica é conhecida como análise de componentes principais .
Se você puder expandir sua noção de sinal "harmonioso", talvez eu possa comentar mais.