Preguntas etiquetadas con regression

Técnicas para analizar la relación entre una (o más) variables "dependientes" y variables "independientes".

2
¿Por qué los modelos de "error en X" no se usan más ampliamente?
Cuando se calcula el error estándar de un coeficiente de regresión, no tenemos en cuenta la aleatoriedad en la matriz de diseño . En OLS, por ejemplo, calculamos comoXXXvar(β^)var(β^)\text{var}(\hat{\beta})var((XTX)−1XTY)=σ2(XTX)−1var((XTX)−1XTY)=σ2(XTX)−1\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} Si la se considerara aleatoria, la ley de la varianza total exigiría, en cierto sentido, la contribución adicional de …


3
¿Puede una regresión lineal ser significativa si los datos no son lineales?
Realicé una regresión lineal que resultó con un resultado significativo, sin embargo, cuando verifiqué la linealidad del diagrama de dispersión, no estaba seguro de que los datos fueran lineales. ¿Hay alguna otra forma de probar la linealidad sin inspeccionar el diagrama de dispersión? ¿Podría la regresión lineal ser significativa si …
11 regression 


1
¿Deben usarse correcciones de grados de libertad para la inferencia en los parámetros GLM?
Esta pregunta está inspirada en la respuesta de Martijn aquí . var [ X] = E[ X] E[ 1 - X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var [ X] = E[ X]var[X]=E[X]\text{var}[X] = E[X] A diferencia de la regresión lineal cuando los residuos se distribuyen normalmente, no se conoce la distribución de muestreo exacta …



4
¿Por qué los métodos de regresión de mínimos cuadrados y máxima verosimilitud no son equivalentes cuando los errores no se distribuyen normalmente?
El título lo dice todo. Entiendo que los mínimos cuadrados y la máxima verosimilitud darán el mismo resultado para los coeficientes de regresión si los errores del modelo se distribuyen normalmente. Pero, ¿qué sucede si los errores no se distribuyen normalmente? ¿Por qué los dos métodos ya no son equivalentes?



1
Cómo interpretar los resultados cuando tanto la cresta como el lazo funcionan bien por separado pero producen coeficientes diferentes
Estoy ejecutando un modelo de regresión con Lasso y Ridge (para predecir una variable de resultado discreta que va de 0 a 5). Antes de ejecutar el modelo, utilizo el SelectKBestmétodo de scikit-learnreducir el conjunto de características de 250 a 25 . Sin una selección inicial de características, tanto Lasso …


2
Si la contracción se aplica de manera inteligente, ¿siempre funciona mejor para estimadores más eficientes?
Supongamos que tengo dos estimadores y que son estimadores consistentes del mismo parámetro y tal que con en el sentido psd. Por lo tanto, asintóticamente es más eficiente que . Estos dos estimadores se basan en diferentes funciones de pérdida.βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_2)V1≤V2V1≤V2V_1 …

3
Regresión con datos sesgados
Intentando calcular el recuento de visitas a partir de la demografía y el servicio. Los datos están muy sesgados. Histogramas: parcelas qq (a la izquierda está el registro): m <- lm(d$Visits~d$Age+d$Gender+city+service) m <- lm(log(d$Visits)~d$Age+d$Gender+city+service) cityy serviceson variables factoriales. Obtengo un valor p bajo *** para todas las variables, pero también …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.