Todos estamos familiarizados con la idea, bien documentada en la literatura, de que la optimización de LASSO (en aras de la simplicidad limita aquí la atención al caso de la regresión lineal) es equivalente al modelo lineal con errores gaussianos en el que los parámetros reciben la Laplace anterior \ exp (- \ lambda \ | \ beta \ | _1) También somos conscientes de que el más alto establece el parámetro de ajuste, \ lambda , cuanto mayor sea la parte de los parámetros se establece en cero. Dicho esto, tengo la siguiente pregunta de pensamiento:
Tenga en cuenta que, desde el punto de vista bayesiano, podemos calcular la probabilidad posterior de que, por ejemplo, las estimaciones de los parámetros distintos de cero se encuentren en cualquier conjunto de intervalos y los parámetros establecidos en cero por LASSO son iguales a cero. Lo que me ha confundido es, dado que el previo de Laplace es continuo (de hecho absolutamente continuo), entonces, ¿cómo puede haber una masa en cualquier conjunto que sea producto de intervalos y singletons en ?