Os t -Valores e R2 são utilizados para julgar coisas muito diferentes. Os t -Valores são usados para avaliar a accurary da sua estimativa do βi 's, mas R2 mede a quantidade de variação na sua variável de resposta explicada pela sua co-variáveis. Suponha que você esteja estimando um modelo de regressão com n observações,
Yi=β0+β1X1i+...+βkXki+ϵi
onde ϵi∼i.i.dN(0,σ2) , i=1,...,n .
Valores t grandes (em valor absoluto) levam você a rejeitar a hipótese nula de que βi=0 . Isso significa que você pode ter certeza de ter estimado corretamente o sinal do coeficiente. Também se |t|> 4 e você tem n>5 , então 0 não está em um intervalo de confiança de 99% para o coeficiente. O valor t para um coeficiente βi é a diferença entre a estimativa βi^ e 0 normalizada pelo erro padrão se{βi^} .
t=βi^se{βi^}
que é simplesmente a estimativa dividida por uma medida de sua variabilidade. Se você tem um conjunto de dados grande o suficiente, você sempre terá estatisticamente significativa (grande) t -Valores. Isso não significa necessariamente que suas covariáveis explicam grande parte da variação na variável de resposta.
Como mencionado @Stat, R2 mede a quantidade de variação na sua variável de resposta explicado por as variáveis dependentes. Para saber mais sobre R2 , ir para a wikipedia . No seu caso, parece que você tem um grande conjunto de dados suficientes para estimar com precisão o βi 's, mas seus co-variáveis fazer um mau trabalho de explicar e \ ou prever os valores de resposta.