Hay una gran diferencia entre realizar estimaciones usando penalizaciones de tipo cresta y penalizaciones de tipo lazo. Los estimadores de tipo de cresta tienden a reducir todos los coeficientes de regresión hacia cero y están sesgados, pero tienen una distribución asintótica fácil de derivar porque no reducen ninguna variable a exactamente cero. El sesgo en las estimaciones de cresta puede ser problemático en la realización de pruebas de hipótesis posteriores, pero no soy un experto en eso. Por otro lado, las penalizaciones de tipo lazo / red elástica reducen muchos coeficientes de regresión a cero y, por lo tanto, pueden verse como técnicas de selección de modelo. El problema de realizar inferencia en modelos que se seleccionaron en base a datos generalmente se conoce como el problema de inferencia selectiva o inferencia posterior a la selección. Este campo ha visto muchos desarrollos en los últimos años.
y∼N(μ,1)μμ|y|>c>0cyC en valor absoluto y por lo tanto y ya no es normal sino truncado normal.
Del mismo modo, el lazo (o red elástica) restringe el espacio muestral de tal manera que se garantiza que se ha seleccionado el modelo seleccionado. Este truncamiento es más complicado, pero puede describirse analíticamente.
Según esta información, se puede realizar una inferencia basada en la distribución truncada de los datos para obtener estadísticas de prueba válidas. Para conocer los intervalos de confianza y las estadísticas de prueba, consulte el trabajo de Lee et al .:
http://projecteuclid.org/euclid.aos/1460381681
Sus métodos se implementan en el paquete R selectivo de inferencia .
La estimación óptima (y las pruebas) después de la selección del modelo se discute en (para el lazo):
https://arxiv.org/abs/1705.09417
y su paquete de software (mucho menos completo) está disponible en:
https://github.com/ammeir2/selectiveMLE