Preguntas etiquetadas con multiple-regression

Regresión que incluye dos o más variables independientes no constantes.


2
¿Cómo realizar un análisis residual para predictores independientes binarios / dicotómicos en regresión lineal?
Estoy realizando la regresión lineal múltiple a continuación en R para predecir los rendimientos del fondo administrado. reg <- lm(formula=RET~GRI+SAT+MBA+AGE+TEN, data=rawdata) Aquí solo GRI y MBA son predictores binarios / dicotómicos; Los predictores restantes son continuos. Estoy usando este código para generar gráficos residuales para las variables binarias. plot(rawdata$GRI, reg$residuals) …

4
Diagrama de líneas rectas diagonales en residuales vs valores ajustados para regresión múltiple
Estoy observando patrones extraños en residuos para mis datos: [EDITAR] Aquí están los gráficos de regresión parcial para las dos variables: [EDIT2] Se agregó la trama PP La distribución parece estar funcionando bien (ver más abajo) pero no tengo idea de dónde podría provenir esta línea recta. ¿Algunas ideas? [ACTUALIZACIÓN …





2
La independencia media condicional implica imparcialidad y consistencia del estimador MCO
Considere el siguiente modelo de regresión múltiple:Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Aquí es un vector de columna ; a matriz; a vector de columna; a matriz; a vector de columna; y , el término de error, un vector de columna .YYYn×1n×1n\times 1XXXn×(k+1)n×(k+1)n\times (k+1)ββ\beta(k+1)×1(k+1)×1(k+1)\times 1ZZZn×ln×ln\times lδδ\deltal×1l×1l\times 1UUUn×1n×1n\times1 PREGUNTA Mi profesor, el libro de texto Introducción …


2
¿Cómo obtener la tabla ANOVA con errores estándar robustos?
Estoy ejecutando una regresión OLS agrupada usando el paquete plm en R. Sin embargo, mi pregunta es más sobre estadísticas básicas, por lo que intento publicarlo aquí primero;) Dado que mis resultados de regresión producen residuos heteroscedasticos, me gustaría intentar usar errores estándar robustos de heteroscedasticidad. Como resultado coeftest(mod, vcov.=vcovHC(mod, …



1
¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?
Tengo un GLMM de la forma: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos últimos dan las mismas respuestas. Usando un montón de …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


1
¿Existe una generalización de la traza Pillai y la traza Hotelling-Lawley?
En el contexto de la regresión múltiple multivariada (regresor de vectores y regresiones), las cuatro pruebas principales para la hipótesis general (Wilk's Lambda, Pillai-Bartlett, Hotelling-Lawley y Roy's Largest Root) dependen de los valores propios de la matriz , donde y son las matrices de variación 'explicadas' y 'totales'.HE−1HE−1H E^{-1}HHHEEE Me …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.