Adoptaré un enfoque diferente para desarrollar la intuición que subyace a la fórmula . Al desarrollar la intuición para el modelo de regresión múltiple, es útil considerar el modelo de regresión lineal bivariado, a saber. , se llama frecuentemente la contribución determinista a , y se llama contribución estocástica. Expresado en términos de desviaciones de las medias de muestra , este modelo también puede escribirse comoyi=α+βxi+εi,Varβ^= σ2( X′X)- 1α + β x i y i ε i ( ˉ x , ˉ y ) ( y i - ˉ y ) = β ( x i - ˉ x ) + ( ε i - ˉ ε ) ,
yyo= α + βXyo+ εyo,i = 1 , ... , n .
α + βXyoyyoεyo( x¯, y¯)( yyo- y¯) = β( xyo- x¯) + ( εyo- ε¯) ,i = 1 , ... , n .
Para ayudar a desarrollar la intuición, asumiremos que se cumplen los supuestos más simples de Gauss-Markov: estocástico, para todos , y para todos . Como ya sabe muy bien, estas condiciones garantizan que donde es la varianza muestral de . En palabras, esta fórmula hace tres afirmaciones: "La varianza de es inversamente proporcional al tamaño de la muestra , es directamente proporcional a la varianza deXyo∑nortei = 1( xyo- x¯)2> 0norteεyo∼ iid ( 0 , σ2)i = 1 , ... , n
Varβ^= 1norteσ2( Varx )- 1,
VarXXβ^norteε , y es inversamente proporcional a la varianza de ".
X
¿Por qué duplicar el tamaño de la muestra, ceteris paribus , hace que la variación de se reduzca a la mitad? Este resultado está íntimamente relacionado con el supuesto iid aplicado a : dado que se supone que los errores individuales son iid, cada observación debe tratarse ex ante como igualmente informativa. Y, duplicando el número de observaciones duplica la cantidad de información sobre los parámetros que describen la relación (supuesta lineal) entre eβ^εXy. Tener el doble de información reduce la incertidumbre sobre los parámetros a la mitad. Del mismo modo, debería ser sencillo desarrollar la intuición de por qué duplicar también duplica la varianza de .σ2β^
Pasemos, entonces, a su pregunta principal, que se trata de desarrollar la intuición para la afirmación de que la varianza de es inversamente proporcional a la varianza de . Para formalizar nociones, consideremos dos modelos de regresión lineal bivariada separados, llamados Modelo y Modelo de ahora en adelante. Asumiremos que ambos modelos satisfacen los supuestos de la forma más simple del teorema de Gauss-Markov y que los modelos comparten exactamente los mismos valores de , , y . Bajo estos supuestos, es fácil demostrar queβ^X( 1 )( 2 )αβnσ2Eβ^(1)=Eβ^(2)=β ; en palabras, ambos estimadores son insesgados. Crucialmente, también asumiremos que mientras que , . Sin pérdida de generalidad, supongamos que . ¿Qué estimador de tendrá la varianza más pequeña? Dicho de otra manera, ¿ o estarán más cerca, en promedio , de ? De la discusión anterior, tenemosx¯(1)=x¯(2)=x¯Varx(1)≠Varx(2)Varx(1)>Varx(2)β^β^(1)β^(2)βVarβ^(k)=1nσ2/Varx(k))para . Debido a que por suposición, se deduce que . ¿Cuál es, entonces, la intuición detrás de este resultado?k=1,2Varx(1)>Varx(2)Varβ^(1)<Varβ^(2)
Porque por supuesto , en promedio cada estará más lejos de que es el caso, en promedio, para . Denotemos la diferencia absoluta promedio esperada entre y por . La suposición de que implica que . El modelo de regresión lineal bivariado, expresado en desviaciones de las medias, establece que para el Modelo y para el ModeloVarx(1)>Varx(2)x(1)ix¯x(2)ixix¯dxVarx(1)>Varx(2)d(1)x>d(2)xdy=βd(1)x(1)dy=βd(2)x(2) . Si , esto significa que el componente determinista del Modelo , , tiene una mayor influencia en que el componente determinista del Modelo , . Recuerde que se supone que ambos modelos satisfacen los supuestos de Gauss-Markov, que las varianzas de error son las mismas en ambos modelos y que . Dado que el Modelo imparte más información sobre la contribución del componente determinista de que el Modelo , se deduce que la precisiónβ≠0(1)βd(1)xdy(2)βd(2)xβ(1)=β(2)=β(1)y(2)con el cual se puede estimar la contribución determinista es mayor para el Modelo que para el Modelo . Lo contrario de una mayor precisión es una varianza menor de la estimación puntual de .(1)(2)β
Es razonablemente sencillo generalizar la intuición obtenida del estudio del modelo de regresión simple al modelo general de regresión lineal múltiple. La principal complicación es que, en lugar de comparar las variaciones escalares, es necesario comparar el "tamaño" de las matrices de varianza-covarianza. Tener un buen conocimiento práctico de los determinantes, trazas y valores propios de matrices simétricas reales resulta muy útil en este punto :-)