Mi pensamiento inicial fue que, para la regresión lineal ordinaria, simplemente conectamos nuestra estimación de la varianza residual, , como si fuera la verdad.σ2
Sin embargo, eche un vistazo a McCulloch y Searle (2001) Modelos generalizados, lineales y mixtos, primera edición , Sección 6.4b, "Varianza de muestreo". Indican que no puede simplemente enchufar las estimaciones de los componentes de varianza :
En lugar de tratar con la varianza (matriz) de un vector consideramos el caso más simple del escalar l ' β para estimable l ' β (es decir, l ' = t ' X para algunos t ' ).Xβ^l′β^l′βl′=t′Xt′
Para conocido , tenemos de (6.21) que var ( l ′ β 0 ) = l ′ ( X ′ V - 1 X ) - l . Un reemplazo de este cuando V no se conoce es para uso l ' ( X ' V - 1 X ) - l , que es una estimación de var ( l ' β 0 ) = var [ l 'Vvar(l′β0)=l′(X′V−1X)−lVl′(X′V^−1X)−l . Pero esnouna estimación de var ( l ' β ) = var [ l ' ( X ' V - 1 X ) - X ' V - 1 y ] . Esto último requiere teniendo en cuenta la variabilidad de V , así como que envar(l′β0)=var[l′(X′V−1X)−X′V−1y]var(l′β^)=var[l′(X′V^−1X)−X′V^−1y]V^ . Para hacer frente a esto, Kackar y Harville (. 1984, p 854) observan que (en nuestra notación) l ' β - l ' β se puede expresar como la suma de dos partes independientes, l ' β - l ' β 0 y l ′ β 0 - l ′ β . Esto conduce a var ( l ' ß ) se expresan como una suma de dos varianzas que escribimos comoyl′β^−l′βl′β^−l′β0l′β0−l′βvar(l′β^)
var(l′β^)=...≈l′(X′V−1X)l+l′Tl
T
Entonces esto responde la primera parte de su pregunta e indica que su intuición era correcta (y la mía estaba equivocada).