Preguntas etiquetadas con residuals

Los residuos de un modelo son los valores reales menos los valores predichos. Muchos modelos estadísticos hacen suposiciones sobre el error, que se estima por los residuos.

1
¿Qué tipo de análisis post-ajuste de residuos utiliza?
Cuando llevo a cabo la regresión lineal múltiple de OLS, en lugar de graficar los residuos contra valores ajustados, grafo los residuales Studentizados (internos) contra valores ajustados (lo mismo para las covariables). Estos residuos se definen como: e∗i=eis2(1−hii)−−−−−−−−−√ei∗=eis2(1−hii)\begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} donde es el residuo y son los …

2
¿Por qué usamos residuos para probar los supuestos sobre errores en la regresión?
Supongamos que tenemos un modelo Yi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiYi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i . La regresión tiene una serie de supuestos, como que los errores ϵiϵi\epsilon_i deberían distribuirse normalmente con media cero y varianza constante. Me han enseñado para comprobar estos supuestos utilizando una parcela …

1
Diferencia entre Outlier e Inlier
Me he topado con el término inlier en la medida LOF (Factor de valor atípico local), estoy familiarizado con el término de valores atípicos (bueno, básicamente mentirosos, instancias que no se comportan como el resto de las instancias). ¿Qué significa 'Inliers' en el contexto de la detección de anomalías? y …



2
Izquierda sesgada vs. distribución simétrica observada
Esto es bastante difícil de describir para mí, pero intentaré que mi problema sea comprensible. Primero, debes saber que hasta ahora he hecho una regresión lineal muy simple. Antes de calcular el coeficiente, observé la distribución de mi . Es pesado dejado sesgado. Después de estimar el modelo, estaba bastante …




2
¿Por qué los residuos de Pearson de una regresión binomial negativa son más pequeños que los de una regresión de Poisson?
Tengo estos datos: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) Corrí una regresión de Poisson poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson") Y una regresión binomial negativa: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) Luego calculé las estadísticas …






Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.