Estoy poniendo otra respuesta con más detalles.
En el modelo de regresión lineal estándar (en forma de matriz):
Y=Xβ+ε
la estimación de OLS es la siguiente
β^=(XTX)−1XTY.
Su varianza entonces es
Var(β^)=(XTX)−1XTVar(Y)X(XTX)−1.
La suposición habitual para la regresión es que
Var(Y)=σ2I,
donde es la matriz de identidad. EntoncesI
Var(β^)=σ2(XTX)−1.
Ahora en tu caso tienes dos modelos:
Yi=Miδi+ϵi
y
Γ=Lc+u,
dónde
- YTi=(Yi1,...,YiT) ,
- Mi=[1,Xi,D] , con ,XTi=(Xi1,...,XiT)DT=(D1,...,DT)
- δTi=(αi,βi,γi)
- ϵTi=(ϵi1,...,ϵiT)
- ΓT=(γ1,...,γn)
- L=[1,Z] , conZT=(Z1,...,Zn)
- cT=(a,b)
- uT=(u1,...,uN) .
Tenga en cuenta que establece el segundo modelo para las estimaciones de , que no es habitual, por lo tanto, lo reformulo en forma habitual, para el "verdadero" .γγ
Anotemos la matriz de covarianza para las estimaciones OLS de coeficientes :c
Var(c^)=(LTL)−1LTVar(Γ)L(LTL)−1
El problema es que no observamos . Observamos las estimaciones . es parte del vectorΓΓ^γ^i
δ^i=δi+(MTiMi)−1MTiϵi.
Suponga que es aleatorio e independiente con y . Esto seguramente es válido para por lo que no perdemos nada si lo ampliamos para otros elementos de .δiϵiMiγiδi
Apilemos todos uno encima del otro:δ^i
δ^T=[δT1,...,δTN]
y explore la varianza de :δ^
Var(δ^)=⎡⎣⎢⎢Var(δ^1)…cov(δ^n,δ^1)cov(δ^1,δ^2)…cov(δ^n,δ2)………cov(δ^1,δ^N)…Var(δ^N)⎤⎦⎥⎥
Suponga que y que . Para tenemosVar(ϵi)=σ2ϵIEϵiϵTj=0i≠j
cov(δ^i,δ^j)=cov(δi,δj)+cov((MTiMi)−1MTiϵi,(MTjMj)−1MTjϵj)=(MTiMi)−1MTiE(ϵiϵTj)Mj(MTjMj)−1=0
Para elementos diagonales tenemos
Var(δ^i)=Var(δi)+σ2ϵ(MTiMi)−1
Volvamos a la varianza de . Como sustituimos lugar de la varianza es la siguientec^Γ^Γ
Var(c^)=(LTL)−1LTVar(Γ^)L(LTL)−1,
Podemos extraer de seleccionando los elementos apropiados:Var(Γ^)Var(δ^)
Var(Γ^)=Var(Γ)+diag(g1,...,gn)
donde es el elemento de correspondiente a . Cada es diferente de ya que corresponden a diferentes y que no se supone que sean iguales.giσ2ϵ(MTiMi)−1Var(γ^i)gigjXitXjt
Entonces obtenemos el sorprendente resultado, que algebraicamente, incluso si asumimos todas las propiedades necesarias, la matriz de covarianza resultante, al menos algebraicamente, no será igual a la matriz de covarianza OLS habitual, ya que para eso necesitamos que sea constante veces matriz de identidad que claramente no lo es.Var(Γ^)
Todas las fórmulas anteriores se derivaron suponiendo que son constantes, por lo que están condicionadas a . Esto significa que en realidad calculamos . Al poner suposiciones adicionales en , creo que sería posible mostrar que la varianza incondicional está bien.XijXijVar(Γ^|X)Xij
El supuesto de independencia colocado en también se puede relajar a la falta de correlación. ϵi
También sería posible usar el estudio de simulación para ver cómo difieren las matrices de covarianza si usamos lugar de .Γ^Γ