Preguntas etiquetadas con least-squares

Se refiere a una técnica de estimación general que selecciona el valor del parámetro para minimizar la diferencia al cuadrado entre dos cantidades, como el valor observado de una variable y el valor esperado de esa observación condicionado al valor del parámetro. Los modelos lineales gaussianos se ajustan por mínimos cuadrados y los mínimos cuadrados es la idea subyacente al uso del error cuadrático medio (MSE) como una forma de evaluar un estimador.


2
Funciones de influencia y OLS
Estoy tratando de entender cómo funcionan las funciones de influencia. ¿Podría alguien explicar en el contexto de una regresión OLS simple yyo= α + β⋅ xyo+ εyoyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} donde quiero la función de influencia para .ββ\beta

4
¿Por qué es ? (Una regresión lineal variable)
Nota: = Suma de cuadrados totales, = Suma de errores al cuadrado, y = Suma de cuadrados de la regresión. La ecuación en el título a menudo se escribe como:SSTSSTSSTSSESSESSESSRSSRSSR ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat y_i)^2+\sum_{i=1}^n (\hat y_i-\bar y)^2 Pregunta bastante directa, pero estoy buscando una explicación intuitiva. Intuitivamente, me parece …

3
Suposiciones para derivar el estimador de MCO
¿Puede alguien explicarme brevemente por qué se necesitan cada uno de los seis supuestos para calcular el estimador de MCO? Solo encontré la multicolinealidad: si existe, no podemos invertir la matriz (X'X) y, a su vez, estimar el estimador general. ¿Qué pasa con los otros (por ejemplo, linealidad, cero errores …



4
¿Cuál es / es la diferencia "mecánica" entre la regresión lineal múltiple con rezagos y series de tiempo?
Soy un graduado de negocios y economía que actualmente estudia para una maestría en ingeniería de datos. Mientras estudiaba la regresión lineal (LR) y luego el análisis de series de tiempo (TS), surgió una pregunta en mi mente. ¿Por qué crear un método completamente nuevo, es decir, series de tiempo …




3
Regresión lineal: ¿alguna distribución no normal que proporcione identidad de OLS y MLE?
Esta pregunta está inspirada en la larga discusión en los comentarios aquí: ¿Cómo usa la regresión lineal la distribución normal? En el modelo de regresión lineal habitual, para simplificar aquí escrito con un solo predictor: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i donde xixix_i son constantes conocidas y …

3
¿Por qué la traza de
En el modelo y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilon , podríamos estimar ββ\beta utilizando la ecuación normal: β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y,y podríamos obtener y =X β .y^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. El vector de residuos se estima por ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = …

1
Usando MLE vs. OLS
¿Cuándo es preferible utilizar la Estimación de máxima verosimilitud en lugar de los mínimos cuadrados ordinarios? ¿Cuáles son las fortalezas y limitaciones de cada uno? Estoy tratando de reunir conocimientos prácticos sobre dónde usar cada uno en situaciones comunes.

1
¿Son apropiados los errores estándar de arranque y los intervalos de confianza en regresiones donde se viola el supuesto de homocedasticidad?
Si en las regresiones estándar de OLS se violan dos supuestos (distribución normal de errores, homocedasticidad), ¿son los errores estándar de arranque y los intervalos de confianza una alternativa apropiada para llegar a resultados significativos con respecto a la importancia de los coeficientes regresores? ¿Las pruebas de significación con errores …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.