Tenga en cuenta que la regresión de cresta no puede poner a cero los coeficientes; por lo tanto, terminas incluyendo todos los coeficientes en el modelo, o ninguno de ellos. Por el contrario, LASSO realiza automáticamente la reducción de parámetros y la selección de variables. Si algunas de sus covariables están altamente correlacionadas, es posible que desee mirar Elastic Net [3] en lugar de LASSO.
Yo personalmente recomendaría usar la Garotte no negativa (NNG) [1] ya que es consistente en términos de estimación y selección de variables [2]. A diferencia de LASSO y la regresión de cresta, NNG requiere una estimación inicial que luego se reduce hacia el origen. En el documento original, Breiman recomienda la solución de mínimos cuadrados para la estimación inicial (sin embargo, es posible que desee comenzar la búsqueda desde una solución de regresión de crestas y usar algo como GCV para seleccionar el parámetro de penalización).
En términos de software disponible, he implementado el NNG original en MATLAB (basado en el código FORTRAN original de Breiman). Puedes descargarlo desde:
http://www.emakalic.org/blog/wp-content/uploads/2010/04/nngarotte.zip
Por cierto, si prefiere una solución bayesiana, consulte [4,5].
Referencias
[1] Breiman, L. Mejor regresión del subconjunto utilizando la Technometrics Garrote no negativo, 1995, 37, 373-384
[2] Yuan, M. y Lin, Y. Sobre el estimador de garrotte no negativo Journal of the Royal Statistical Society (Serie B), 2007, 69, 143-161.
[3] Zou, H. y Hastie, T. Regularización y selección de variables a través de la red elástica Journal of the Royal Statistical Society (Serie B), 2005, 67, 301-320
[4] Park, T. y Casella, G. The Bayesian Lasso Journal de la Asociación Americana de Estadística, 2008, 103, 681-686
[5] Kyung, M .; Gill, J .; Ghosh, M. y Casella, G. Regresión penalizada, errores estándar y análisis bayesiano Lassos Bayesiano, 2010, 5, 369-412