Las consecuencias de la heteroscedasticidad son:
El mínimos cuadrados ordinarios (OLS) estimador b = ( X ' X ) X ' y es todavía coherente pero ya no es eficiente .b^=(X′X)X′y
Var^(b)=(X′X)−1σ^2σ^2=1n−ke′eb^
El punto (1) puede no ser un problema importante; la gente a menudo usa el estimador OLS ordinario de todos modos. Pero el punto (2) debe ser abordado. ¿Qué hacer?
b
Var^(b)=1n(X′Xn)−1S(X′Xn)−1
SS=1n−k∑i(xiei)(xiei)′
Esto da errores estándar consistentes a la heterocedasticidad. También se conocen como errores estándar de Huber-White, errores estándar robustos, estimador "sandwich", etc. Cualquier paquete de estadísticas estándar básico tiene una opción para errores estándar robustos. Úsalo!
Algunos comentarios adicionales (actualización)
Si la heterocedasticidad es lo suficientemente grande, la estimación regular de MCO puede tener grandes problemas prácticos. Si bien sigue siendo un estimador consistente, es posible que tenga pequeños problemas de muestra en los que toda su estimación se debe a unas pocas observaciones de alta varianza. (Esto es a lo que @ seanv507 alude en los comentarios). El estimador OLS es ineficiente porque da más peso a las observaciones de alta varianza que lo óptimo. La estimación puede ser extremadamente ruidosa.
Un problema al tratar de corregir la ineficiencia es que probablemente tampoco conozca la matriz de covarianza para los términos de error, por lo tanto, usar algo como GLS puede empeorar las cosas si su estimación de la matriz de covarianza del término de error es basura.
Además, los errores estándar de Huber-White que doy arriba pueden tener grandes problemas en muestras pequeñas. Hay una larga literatura sobre este tema. P.ej. ver Imbens y Kolesar (2016), "Errores estándar robustos en muestras pequeñas: algunos consejos prácticos".
Dirección para estudios posteriores:
Si esto es autoestudio, lo siguiente práctico a considerar son los errores estándar agrupados. Estos corrigen la correlación arbitraria dentro de los clústeres.