O denominador do estimador de variância (imparcial) é pois existem observações e apenas um parâmetro está sendo estimado.n
Da mesma forma, pergunto-me por que o denominador de covariância não deveria ser quando dois parâmetros estão sendo estimados?
O denominador do estimador de variância (imparcial) é pois existem observações e apenas um parâmetro está sendo estimado.n
Da mesma forma, pergunto-me por que o denominador de covariância não deveria ser quando dois parâmetros estão sendo estimados?
Respostas:
Covariances são variações.
Desde pela identidade de polarização
os denominadores devem ser os mesmos.
Um caso especial deve lhe dar uma intuição; pense no seguinte:
Você está feliz que o último seja devido à correção de Bessel.
Mas substituindo por X em ^ C O v ( X , Y ) para ao primeiro dá Σ n i = 1 ( X i - ¯ X ) ( X i - ¯ X ) , então o que você acha que poderia preencher melhor o espaço em branco?
Uma resposta rápida e suja ... Vamos considerar primeiro ; se você tivesse n observações com valor esperado conhecido E ( X ) = 0, você usaria 1 para estimar a varicia.
Como o valor esperado é desconhecido, você pode transformar suas observações em n - 1 observações com valor esperado conhecido, tomando A i = X i - X 1 para i = 2 , … , n . Você obterá uma fórmula com n - 1 no denominador - no entanto, A i não é independente e você deve levar isso em consideração; no final, você encontrará a fórmula usual.
Agora, para a covariância, você pode usar a mesma idéia: se o valor esperado de fosse ( 0 , 0 ) , você teria 1 na fórmula. Subtraindo(X1,Y1)a todos os outros valores observados, você obtémn-1observações com o valor esperado conhecido ... e um1 na fórmula - mais uma vez, isso introduz alguma dependência a ser levada em consideração.
PS A maneira limpa para fazer isso é escolher uma base ortonormal de , que é n - 1 vetores c 1 , ... , c n - 1 ∈ R n tal que
Pode, em seguida, definir variáveis Um i = Σ j c i j X j e B i = Σ j c i j Y j . Os ( A i , B i ) são independentes, têm valor esperado ( 0 , 0 ) e têm a mesma variância / covariância que as variáveis originais.
A questão é que, se você quiser se livrar da expectativa desconhecida, descarte uma (e apenas uma) observação. Isso funciona da mesma forma nos dois casos.
Aqui está uma prova de que o estimador de covariância da amostra p-variada com denominador é um estimador imparcial da matriz de covariância:
.
Next:
(1)
(2)
Therefore:
And so , with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Start .
2) Sample covariance is proportional to . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold?