¿A qué se refiere el término "escaso previo" (FBProphet Paper)?


11

Al leer el documento "Pronósticos a escala" (herramienta de pronóstico FBProphet, consulte https://peerj.com/preprints/3190.pdf ) Me encontré con el término "escaso previo". Los autores explican que estaban usando un "previo escaso" para modelar un vector de desviaciones de velocidad de alguna tasa escalar , que es un parámetro modelo en el modelo de crecimiento logístico.δk

Como afirman que , ¿entiendo correctamente que "disperso" se refiere a los elementos portadores de vectores cercanos a cero, si el parámetro era pequeño? Estoy confundido, porque pensé que todos los elementos vectoriales debían ser parámetros de la regresión, pero definirlos así solo deja a los parámetros k y \ tau como parámetros de modelo libre, ¿no?δjLaplace(0,τ)τkτ

Además, ¿es común el uso de la distribución de Laplace para generar el previo? No entiendo por qué se prefiere sobre, por ejemplo, una distribución normal.


1
También me pregunto sobre esta pregunta, mientras leo el periódico. ¿Encontró alguna respuesta a esta pregunta? Además, ¿hizo esta pregunta en la sección de problemas de Profeta github ? Uno de los autores (@bletham) es bastante activo en responder preguntas, y sus explicaciones suelen ser bastante buenas.
leaRner

Respuestas:


4

Los datos escasos son datos con muchos ceros. Aquí los autores parecen estar llamando al prior como escaso porque marca los ceros como favoritos. Esto se explica por sí mismo si observa la forma de la distribución de Laplace (también conocida como doble exponencial), que alcanza su punto máximo alrededor de cero.

(fuente de la imagen Tibshirani, 1996)

Este efecto es cierto para cualquier valor de (la distribución siempre alcanza su punto máximo en su parámetro de ubicación, aquí igual a cero), aunque cuanto menor sea el valor del parámetro, mayor será el efecto de regularización.τ

Por esta razón, Laplace prior se utiliza a menudo como prior robusto , que tiene el efecto de regularización. Dicho esto, el Laplace prior es una opción popular, pero si desea soluciones realmente escasas, puede haber mejores opciones, como lo describen Van Erp et al (2019).

Van Erp, S., Oberski, DL y Mulder, J. (2019). Contracción previa para la regresión penalizada bayesiana. Revista de Psicología Matemática, 89 , 31-50. doi: 10.1016 / j.jmp.2018.12.004


3
+1 Solo agregaré que estos a menudo se llaman anteriores "inductores de dispersión", un término que personalmente creo que es más claro (el anterior induce dispersión en los coeficientes de regresión estimados)
Jake Westfall
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.