Preguntas etiquetadas con least-squares

Se refiere a una técnica de estimación general que selecciona el valor del parámetro para minimizar la diferencia al cuadrado entre dos cantidades, como el valor observado de una variable y el valor esperado de esa observación condicionado al valor del parámetro. Los modelos lineales gaussianos se ajustan por mínimos cuadrados y los mínimos cuadrados es la idea subyacente al uso del error cuadrático medio (MSE) como una forma de evaluar un estimador.


2
Los supuestos de los mínimos cuadrados
Suponga la siguiente relación lineal: Yi=β0+β1Xi+uiYyo=β0 0+β1Xyo+tuyoY_i = \beta_0 + \beta_1 X_i + u_i , donde YiYyoY_i es la variable dependiente, XiXyoX_i una variable independiente y uituyou_i el término de error. Según Stock & Watson (Introducción a la Econometría; Capítulo 4 ), el tercer supuesto de mínimos cuadrados es que …







1
¿Aplicando la regresión de cresta para un sistema de ecuaciones subdeterminado?
Cuando , el problema de mínimos cuadrados que impone una restricción esférica en el valor de se puede escribir como para un sistema sobredeterminado. \ | \ cdot \ | _2 es la norma euclidiana de un vector.y=Xβ+ey=Xβ+ey = X\beta + eδδ\deltaββ\betamin ∥y−Xβ∥22s.t. ∥β∥22≤δ2min⁡ ‖y−Xβ‖22s.t.⁡ ‖β‖22≤δ2\begin{equation} \begin{array} &\operatorname{min}\ \| y …

1
¿Bajo qué supuestos el método de mínimos cuadrados ordinarios da estimadores eficientes e imparciales?
¿Es cierto que bajo los supuestos de Gauss Markov el método de mínimos cuadrados ordinarios proporciona estimadores eficientes e imparciales? Entonces: mi( ut) = 0mi(tut)=0 0E(u_t)=0 para todottt mi( uttus) = σ2mi(tuttus)=σ2E(u_tu_s)=\sigma^2 parat = st=st=s mi( uttus) = 0mi(tuttus)=0 0E(u_tu_s)=0 parat ≠ st≠st\neq s donde son los residuos.tutuu

2
Teorema de Gauss-Markov: AZUL y OLS
Estoy leyendo el teorema de Guass-Markov en Wikipedia , y esperaba que alguien pudiera ayudarme a descubrir el punto principal del teorema. Suponemos un modelo lineal, en forma de matriz, está dada por: y que estamos buscando la BLUE, β .y=Xβ+ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta De acuerdo con …

2

1
Rango de lambda en regresión neta elástica
\def\l{|\!|} Dada la regresión neta elástica minb12||y−Xb||2+αλ||b||22+(1−α)λ||b||1minb12||y−Xb||2+αλ||b||22+(1−α)λ||b||1\min_b \frac{1}{2}\l y - Xb \l^2 + \alpha\lambda \l b\l_2^2 + (1 - \alpha) \lambda \l b\l_1 ¿Cómo se puede elegir un rango apropiado de λλ\lambda para la validación cruzada? En el caso α=1α=1\alpha=1 (regresión de cresta) la fórmula dof=∑js2js2j+λdof=∑jsj2sj2+λ\textrm{dof} = \sum_j \frac{s_j^2}{s_j^2+\lambda} se …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.