Você provavelmente está pensando no teste duas amostras t, porque esse é geralmente o primeiro local em que a distribuição t aparece. Mas, na verdade, tudo que um teste t significa é que a distribuição de referência para a estatística de teste é uma distribuição t . Se Z∼N(0,1) e S2∼χ2d com Z e S2 independentes, então
ZS2/d−−−−√∼td
por definição. Estou escrevendo isso para enfatizar que adistribuição
té apenas um nome que foi dado à distribuição dessa proporção porque ela aparece muito, e qualquer coisa dessa forma terá umadistribuição
t. Para o teste t de duas amostras, essa razão aparece porque, sob o nulo, a diferença de médias é um Gaussiano com média zero e a estimativa de variância para Gaussianos independentes é um
χ2independente (a independência pode ser mostrada pelo
teorema de Basu que usa o fato de que a estimativa de variância padrão em uma amostra gaussiana é acessória à média da população, enquanto a média da amostra é completa e suficiente para a mesma quantidade).
Com a regressão linear, basicamente obtemos a mesma coisa. Na forma de . Seja S 2 j = ( X T X ) - 1 jβ^∼N(β,σ2(XTX)−1) e assuma que os preditoresXsão não aleatórios. Se soubéssemosσ2teríamos
β j-0S2j= ( XTX)- 1j jXσ2
sob o valor nulo deH0:βj=
β^j- 0σSj∼ N( 0 , 1 )
então teríamos um teste Z. Mas uma vez que estimar
σ 2 acabamos com um
χ 2 variável aleatória que, sob as nossas suposições de normalidade, acaba por ser independente da nossa estatística
β j e depois temos um
t de distribuição.
H0 0: βj= 0σ2χ2β^jt
Aqui estão os detalhes disso: assuma . Deixando H = X ( X T X ) - 1 X T ser a matriz do chapéu, temos
" e " 2 = " ( I - H ) y " 2 = y T ( I - H ) y . H é idempotente, por isso temos o resultado muito bom que
y∼ N( Xβ, σ2Eu)H= X( XTX)- 1XT
∥ e ∥2= ∥ ( I- H) y∥2= yT( Eu- H) y.
H
com parâmetro de não centralidade
δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , então, na verdade, esse é um
χ 2 centralcom
n - pyT( Eu- H) y/ σ2∼ χ2n - p( δ)
δ= βTXT( Eu- H) Xβ= βT( XTX- XTX) β= 0χ2n - pgraus de liberdade (este é um caso especial
do teorema de
Cochran ). Estou usando
para denotar o número de colunas de
X , portanto, se uma coluna de
X fornecer a interceptação, teríamos
p - 1 preditores de não interceptação. Alguns autores usam
p para ser o número de preditores de não interceptação; portanto, às vezes você pode ver algo como
n - p - 1 nos graus de liberdade, mas é tudo a mesma coisa.
pXXp - 1pn - p - 1
E( eTe / σ2) = n - pσ^2: = 1n - peTeσ2
β^jσ^Sj= β^jSjeTe / ( n - p )----------√= β^jσSjeTeσ2( n - p )------√
Z∼ Nk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0
β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
β^jσ^Sj∼tn−p
C=(AB)(l+m)×kAB
CZ=(AZBZ)∼N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition
AΣBT=0 turns out to be exactly equivalent to the components
AZ and
BZ in
CZ being uncorrelated.
□