Los valores t y R2 se usan para juzgar cosas muy diferentes. Los valores t se usan para juzgar la precisión de su estimación de los βi 's, pero R2 mide la cantidad de variación en su variable de respuesta explicada por sus covariables. Suponga que está estimando un modelo de regresión con n observaciones,
Yi=β0+β1X1i+...+βkXki+ϵi
donde ϵi∼i.i.dN(0,σ2) , i=1,...,n .
Los valores t grandes (en valor absoluto) lo llevan a rechazar la hipótesis nula de que βi=0 . Esto significa que puede estar seguro de haber estimado correctamente el signo del coeficiente. Además, si |t|> 4 y tiene n>5 , entonces 0 no está en un intervalo de confianza del 99% para el coeficiente. El valor t para un coeficiente βi es la diferencia entre la estimación βi^ y 0 normalizada por el error estándar se{βi^} .
t=βi^se{βi^}
que es simplemente la estimación dividida por una medida de su variabilidad. Si tiene un conjunto de datos lo suficientemente grande, siempre tendrá valores t estadísticamente significativos (grandes) . Esto no significa necesariamente que sus covariables expliquen gran parte de la variación en la variable de respuesta.
Como @Stat mencionó, R2 mide la cantidad de variación en su variable de respuesta explicada por sus variables dependientes. Para obtener más información sobre R2 , vaya a wikipedia . En su caso, parece que tiene un conjunto de datos lo suficientemente grande como para estimar con precisión la βi 's, pero sus covariables hacen un mal trabajo al explicar y \ o predecir los valores de respuesta.