¿Por qué R cuadrado ajustado es menor que R cuadrado si R cuadrado ajustado predice mejor el modelo?


15

Hasta donde yo entiendo, explica qué tan bien el modelo predice la observación. R 2 ajustado es el que tiene en cuenta más observaciones (o grados de libertad). Entonces, ¿ R 2 ajustado predice mejor el modelo? Entonces, ¿por qué es esto menor que R 2?R2R2R2R2 ? Parece que a menudo debería ser más.

Respuestas:


30

muestra la relación lineal entre las variables independientes y la variable dependiente. Se define como 1 - S S ER2 que es la suma de los errores al cuadrado dividido por la suma total de los cuadrados. SSTO=SSE+SSR,que son el error total y la suma total de los cuadrados de regresión. A medida que se agregan variables independientesSSRcontinuará aumentando (y dado queSSTOes fijo)SSEbajará yR21SSESSTOSSTO=SSE+SSRSSRSSTOSSER2 aumentará continuamente independientemente de lo valiosas que sean las variables que agregó.

El ajustado está intentando dar cuenta de la contracción estadística. Los modelos con toneladas de predictores tienden a funcionar mejor en la muestra que cuando se prueban fuera de la muestra. Los ajustados R 2 "penaliza" usted para añadir las variables predictoras adicionales que no mejoran el modelo existente. Puede ser útil en la selección del modelo. R 2 ajustado será igual a R 2 para una variable predictora. A medida que agregue variables, será más pequeño que R 2 .R2R2R2R2R2


No está claro cómo el cuadrado R ajustado logra las propiedades puntiagudas. Es decir, ¿cuál es la fórmula y cómo causa las propiedades?
Alexey Voytenko

Adj R ^ 2 = 1 - ((n -1) / (n - k -1)) (1 - R ^ 2)
mountainclimber

Donde k = # de variables independientes, n = # observaciones
mountainclimber

intentando dar cuenta de la contracción estadística , ¿quizás por sobreajuste?
Richard Hardy

-1

R ^ 2 explica la proporción de la variación en su variable dependiente (Y) explicada por sus variables independientes (X) para un modelo de regresión lineal.

Mientras está ajustado, R ^ 2 dice la proporción de la variación en su variable dependiente (Y) explicada por más de 1 variables independientes (X) para un modelo de regresión lineal.


1
La distinción que está haciendo entre "variables independientes" y "más de 1 variables independientes" no está clara. Además, citando a Andy desde abajo, "Realmente no se agrega nueva información a lo que se proporcionó antes".
ameba dice Reinstate Monica

-2

R-Squared aumenta incluso cuando agrega variables que no están relacionadas con la variable dependiente, pero R-Squared ajustado se encarga de eso, ya que disminuye cada vez que agrega variables que no están relacionadas con la variable dependiente, por lo tanto, después de tener cuidado es probable disminuir.


33
Dado que esta pregunta ya tiene una respuesta aceptada, esto debería ser más un comentario. Realmente no agrega nueva información a lo que se proporcionó anteriormente.
Andy
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.