"Mínimos cuadrados" significa que la solución general minimiza la suma de los cuadrados de los errores cometidos en los resultados de cada ecuación. La aplicación más importante es el ajuste de datos. El mejor ajuste en el sentido de mínimos cuadrados minimiza la suma de los residuos al cuadrado, un residuo es la diferencia entre un valor observado y el valor ajustado proporcionado por un modelo. Los problemas de mínimos cuadrados se dividen en dos categorías: mínimos cuadrados lineales u ordinarios y no mínimos cuadrados lineales, dependiendo de si los residuos son lineales o no en todas las incógnitas.
La regresión lineal bayesiana es un enfoque de regresión lineal en el que el análisis estadístico se lleva a cabo dentro del contexto de la inferencia bayesiana. Cuando el modelo de regresión tiene errores que tienen una distribución normal, y si se asume una forma particular de distribución previa, hay resultados explícitos disponibles para las distribuciones de probabilidad posteriores de los parámetros del modelo.
∥β∥2
∥ β∥1 . En un contexto bayesiano, esto es equivalente a colocar una distribución previa de Laplace de media cero en el vector de parámetros.
Una de las principales diferencias entre Lasso y la regresión de cresta es que en la regresión de cresta, a medida que aumenta la penalización, todos los parámetros se reducen sin dejar de ser cero, mientras que en Lazo, aumentar la penalización hará que más y más de los parámetros sean conducido a cero.
Este artículo compara el lazo regular con el lazo bayesiano y la regresión de cresta (ver figura 1 ).