¿Cuál es la diferencia entre mínimos cuadrados y regresión lineal? ¿Es la misma cosa?
¿Cuál es la diferencia entre mínimos cuadrados y regresión lineal? ¿Es la misma cosa?
Respuestas:
La regresión lineal supone una relación lineal entre la variable independiente y la dependiente. No te dice cómo se ajusta el modelo. El ajuste cuadrado mínimo es simplemente una de las posibilidades. Otros métodos para entrenar un modelo lineal se encuentran en el comentario.
Los mínimos cuadrados no lineales son comunes ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Por ejemplo, el popular algoritmo Levenberg – Marquardt resuelve algo como:
Es una optimización de mínimos cuadrados, pero el modelo no es lineal.
No son lo mismo .
Además de la respuesta correcta de @Student T, quiero enfatizar que los mínimos cuadrados son una función de pérdida potencial para un problema de optimización, mientras que la regresión lineal es un problema de optimización.
Dado un determinado conjunto de datos, la regresión lineal se utiliza para encontrar la mejor función lineal posible, lo que explica la conexión entre las variables.
En este caso, el "mejor" posible está determinado por una función de pérdida, comparando los valores predichos de una función lineal con los valores reales en el conjunto de datos. Mínimos cuadrados es una posible función de pérdida.
El artículo de Wikipedia de mínimos cuadrados también muestra imágenes en el lado derecho que muestran el uso de mínimos cuadrados para otros problemas que no sean la regresión lineal como:
El siguiente gif del artículo de Wikipedia muestra varias funciones polinómicas diferentes ajustadas a un conjunto de datos utilizando mínimos cuadrados. Solo uno de ellos es lineal (polinomio de 1). Esto está tomado del artículo de Wikipedia en alemán sobre el tema.