Considere un polinomio:
β0 0+β1x +β2X2+ ... +βkXk
Observe que el polinomio es no lineal en Xpero que es lineal enβ. Si estamos tratando de estimar , ¡esta es una regresión lineal!
Linealidad en es lo que importa Al estimar la ecuación anterior por mínimos cuadrados, todos los resultados de la regresión lineal se mantendrán.β
yyo=β0 0+β1Xyo+β2X2yo+ ... +βkXkyo+ϵyo
β = (β0 0,β1, ... ,βk)
Sea la suma total de los cuadrados, la suma explicada de los cuadrados y la suma residual de los cuadrados. El coeficiente de determinación se define como:S S TS S ES S R R2
R2= 1 -S S RS S T
Y el resultado de la regresión lineal que le da a su interpretación familiar como la fracción de varianza explicada por el modelo.S S T = S S E + S S RR2
SST = SSE + SSR: ¿Cuándo es cierto y cuándo no?
Deje que sea el valor de pronóstico de y deje que sea el residuo. Además, definamos el valor de pronóstico degradado como .y^yoyyomiyo=yyo-y^yoFyo=y^yo-y¯
Let denota un producto interno . Trivialmente tenemos:
Observe que es un producto interno válido. Entonces nosotros tenemos:⟨ . , . ⟩
⟨ f+ e , f+ E ⟩= ⟨ F, f⟩ + 2 ⟨ f, E ⟩ + ⟨ e , e ⟩= ⟨ F, f⟩ + ⟨ E , e ⟩si f y e ortogonal, es decir, su producto interno es 0
⟨ Un , b ⟩ =∑younayosiyo
- ⟨ f+ e , f+ E ⟩ =∑yo(yyo-y¯)2 es la suma total de cuadrados (SST).
- ⟨ f, f⟩ =∑yo(y^yo-y¯)2 es la suma explicada de cuadrados (SSE).
- ⟨ E , e ⟩ =∑yo(yyo-y^yo)2 es la suma residual de cuadrados (SSR).
Por lo tanto, es verdadero si el pronóstico degradado es ortogonal al residual . Esto es cierto en la regresión lineal de mínimos cuadrados ordinarios siempre que se incluya una constante en la regresión. Otra interpretación de los mínimos cuadrados ordinarios es que estás proyectando en el tramo lineal de los regresores, por lo tanto, el residuo es ortogonal a ese espacio por construcción. La ortogonalidad de las variables y residuos del lado derecho no es en general cierta para los pronósticos obtenidos de otras maneras.SST= SSmi+ SSRFmi yy^yo