Hay varios sitios web que describen el descenso de gradiente para encontrar los parámetros para la regresión lineal simple ( aquí hay uno de ellos). Google también lo describe en su nuevo curso (para el público) de ML.
Sin embargo en Wikipedia , se proporcionan las siguientes fórmulas para calcular los parámetros:
Además, el scikit-learn LinearRegression función, no tiene un n_iter_
(número de iteraciones) atributo como lo hace para muchas otras funciones de aprendizaje, que supongo sugiere que no se está utilizando gradiente de descenso?
Preguntas:
- ¿Los sitios web que describen el descenso de gradiente para una regresión lineal simple solo lo hacen para enseñar el concepto en el modelo ML más básico? ¿Es la fórmula en Wikipedia la que usaría la mayoría del software de estadísticas para calcular los parámetros (al menos scikit-learn no parece estar usando el descenso de gradiente)?
- ¿Qué se usa típicamente para la regresión lineal múltiple?
- ¿Para qué tipos de modelos de aprendizaje estadístico se usa el descenso de gradiente para encontrar los parámetros sobre otros métodos? Es decir, ¿hay alguna regla general?