La selección del modelo LASSO y hacia adelante / hacia atrás tiene fortalezas y limitaciones. No se puede hacer una recomendación exhaustiva. La simulación siempre se puede explorar para abordar esto.
pagnortep ≫ n
El sobreajuste se remedia utilizando la validación cruzada de muestras divididas (CV) para la evaluación del modelo. Como no describiste esto, supongo que no lo hiciste. A diferencia de la selección de modelo por pasos, LASSO utiliza un parámetro de ajuste para penalizar el número de parámetros en el modelo. Puede corregir el parámetro de ajuste o utilizar un proceso iterativo complicado para elegir este valor. Por defecto , LASSO hace lo último. Esto se hace con CV para minimizar el MSE de predicción. No conozco ninguna implementación de selección de modelo por pasos que use técnicas tan sofisticadas, incluso el BIC como criterio sufriría un sesgo de validación interna. Según mi cuenta, eso automáticamente le da a LASSO influencia sobre la selección de modelos "listos para usar".
Por último, la selección de modelos por pasos puede tener diferentes criterios para incluir / excluir diferentes regresores. Si usa los valores p para la prueba de Wald de los parámetros del modelo específico o el modelo resultante R ^ 2, no lo hará bien, principalmente debido al sesgo de validación interno (nuevamente, podría remediarse con CV). Me parece sorprendente que esta sea la forma en que estos modelos tienden a implementarse. AIC o BIC son criterios mucho mejores para la selección del modelo.
Hay varios problemas con cada método. Los problemas de selección de modelos paso a paso se entienden mucho mejor, y son mucho peores que los de LASSO. El principal problema que veo con su pregunta es que está utilizando herramientas de selección de funciones para evaluar la predicción . Son tareas distintas. LASSO es mejor para la selección de características o la selección de modelos dispersos. La regresión de cresta puede dar una mejor predicción ya que utiliza todas las variables.
p ≫ n
p ≫ n