Estou acostumado a conhecer "graus de liberdade" como , onde você tem o modelo linear \ mathbf {y} = \ mathbf {X} \ boldsymbol {\ beta} + \ boldsymbol {\ epsilon} com \ mathbf {y } \ in \ mathbb {R} ^ n , \ mathbf {X} \ em M_ {n \ vezes p} (\ mathbb {R}) a matriz de design com classificação r , \ boldsymbol {\ beta} \ in \ mathbb { R} ^ p , \ boldsymbol {\ epsilon} \ in \ mathbb {R} ^ n com \ boldsymbol {\ epsilon} \ sim \ mathcal {N} (\ mathbf {0}, \ sigma ^ 2 \ mathbf {I} _n) , \ sigma ^ 2> 0 .
Pelo que me lembro de estatística elementar (ou seja, modelos pré-lineares com álgebra linear), os graus de liberdade para o teste t de pares combinados é o número de diferenças menos . Portanto, isso implicaria que possua a classificação 1, talvez. Isso está correto? Caso contrário, por que o grau de liberdade para o teste t de pares combinados ?
Para entender o contexto, suponha que eu tenha um modelo de efeitos mistos
Gostaria de fornecer um intervalo de confiança para .
Eu já mostrei que é um estimador imparcial de , em que , e é definido da mesma forma. A estimativa pontual foi calculada.
Eu já mostrei que
Agora, a última parte é descobrir os graus de liberdade. Para esta etapa, geralmente tento encontrar a matriz de design - que obviamente possui o rank 2 - mas tenho a solução para esse problema e diz que os graus de liberdade são .
No contexto de encontrar a classificação de uma matriz de design, por que os graus de liberdade são ?
Editado para adicionar: Talvez útil nesta discussão seja como a estatística de teste é definida. Suponha que eu tenha um vetor de parâmetro . Nesse caso, (a menos que eu esteja perdendo algo completamente). Estamos essencialmente realizando o teste de hipótese que . Em seguida, a estatística de teste é fornecida por que seriam testados contra uma distribuição central com