Sea el número de observaciones y el número de variables explicativas.KNK
NX es en realidad una matrizSolo cuando observamos una sola observación, denotamos cada observación generalmente como : un vector de fila de variables explicativas de un escalar de observación particular multiplicado por el vector de columna . Además, es un vector de columna , que contiene todas las observaciones .N×KxTiK×1βYN×1Yn
Ahora, un hiperplano dos dimensiones se extendería entre el vector y una (!) Vector columna de . Recuerde que es un de la matriz, por lo que cada variable explicativa está representado por exactamente un vector columna de la matriz . Si sólo tenemos una variable explicativa, no interceptar y , todos los puntos de datos están situados a lo largo del plano dimensional 2 abarcado por y .YXXN×KXYYX
Para una regresión múltiple, ¿cuántas dimensiones en total tiene el hiperplano entre y la matriz ? Respuesta: Dado que tenemos vectores de columna de variables explicativas en , debemos tener un hiperplano dimensional .YXKXK+1
Por lo general, en una configuración matricial, la regresión requiere una intercepción constante para ser imparcial para un análisis razonable del coeficiente de pendiente. Para acomodarnos a este truco, forzamos una columna de la matriz a consistir solo en " s". En este caso, el estimador encuentra solo multiplicado por una constante para cada observación en lugar de una variable explicativa aleatoria. El coeficiente representa el valor esperado de dado que se mantiene fijo con el valor 1 y todas las demás variables son cero. Por lo tanto, el hiperplano dimensional se reduce en una dimensión a un subespacio dimensional, yX1β1β1Yx1iK+1Kβ1 corresponde a la "intercepción" de este plano dimensional.K
En configuraciones matriciales siempre es aconsejable echar un vistazo al caso simple de dos dimensiones, para ver si podemos encontrar una intuición para nuestros resultados. Aquí, la forma más fácil es pensar en la regresión simple con dos variables explicativas:
o expresada alternativamente en Matrix algebra: donde es un matriz.
yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2
<Y,X> abarca un hiperplano tridimensional.
Ahora, si a todos a ser todos , obtenemos:
que es nuestra regresión simple habitual que se puede representar en una gráfica bidimensional . Tenga en cuenta que ahora se reduce a una línea bidimensional, un subconjunto del hiperplano tridimensional original. El coeficiente corresponde a la intersección del corte de línea en .x11
yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0
Se puede demostrar además que también pasa por para cuando se incluye la constante . Si omitimos la constante, el hiperplano de regresión siempre pasa trivialmente a través de , sin duda. Esto se generaliza en múltiples dimensiones, como se verá más adelante cuando se derive :
Como tiene rango completo por definición, , entonces la regresión pasa por el origen si dejamos de lado la intersección.<0,β1><0,0>βX y - X β = 0
(X′X)β=X′y⟹(X′X)β−X′y=0⟹X′(y−Xβ)=0.
Xy−Xβ=0
( Editar: Acabo de darme cuenta de que para su segunda pregunta, esto es exactamente lo contrario de lo que ha escrito, incluyendo la inclusión o exclusión de la constante. Sin embargo, ya he ideado la solución aquí y me corrijo si me equivoco en eso ) .
Sé que la representación matricial de una regresión puede ser bastante confusa al principio, pero eventualmente se simplifica mucho al derivar álgebra más compleja. Espero que esto ayude un poco.