Preguntas etiquetadas con regression

Técnicas para analizar la relación entre una (o más) variables "dependientes" y variables "independientes".




2
¿Cuál es la forma correcta de probar las diferencias significativas entre coeficientes?
Espero que alguien pueda ayudarme a aclarar un punto de confusión para mí. Digamos que quiero probar si 2 conjuntos de coeficientes de regresión son significativamente diferentes entre sí, con la siguiente configuración: yi=α+βxi+ϵiyi=α+βxi+ϵiy_i = \alpha + \beta x_i + \epsilon_i , con 5 variables independientes. 2 grupos, con tamaños …


1
Suposiciones de LASSO
En un escenario de regresión LASSO donde y=Xβ+ϵy=Xβ+ϵy= X \beta + \epsilon , y las estimaciones de LASSO están dadas por el siguiente problema de optimización minβ||y−Xβ||+τ||β||1minβ||y−Xβ||+τ||β||1 \min_\beta ||y - X \beta|| + \tau||\beta||_1 ¿Hay supuestos de distribución con respecto al ?ϵϵ\epsilon En un escenario OLS, uno esperaría que los …


3
¿Cómo es posible obtener un buen modelo de regresión lineal cuando no existe una correlación sustancial entre la salida y los predictores?
He entrenado un modelo de regresión lineal, utilizando un conjunto de variables / características. Y el modelo tiene un buen rendimiento. Sin embargo, me he dado cuenta de que no hay una variable con una buena correlación con la variable predicha. ¿Como es posible?

3
¿Por qué no usar las "ecuaciones normales" para encontrar coeficientes de mínimos cuadrados simples?
Vi esta lista aquí y no podía creer que hubiera tantas formas de resolver mínimos cuadrados. Las "ecuaciones normales" en la Wikipedia parecían ser una forma bastante α^β^=y¯−β^x¯,=∑ni=1(xi−x¯)(yi−y¯)∑ni=1(xi−x¯)2α^=y¯−β^x¯,β^=∑i=1n(xi−x¯)(yi−y¯)∑i=1n(xi−x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\bar {y}}-{\hat {\beta }}\,{\bar {x}},\\{\hat {\beta }}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}} Entonces, ¿por qué no solo usarlos? …

1
¿Existe una interpretación bayesiana de la regresión lineal con regularización simultánea de L1 y L2 (también conocida como red elástica)?
Es bien sabido que la regresión lineal con una penalización de es equivalente a encontrar la estimación MAP dada una Gaussiana anterior sobre los coeficientes. Del mismo modo, usar una penalización es equivalente a usar una distribución de Laplace como la anterior.l2l2l^2l1l1l^1 No es raro usar alguna combinación ponderada de …

2
¿Por qué exactamente la regresión beta no puede tratar con 0s y 1s en la variable de respuesta?
La regresión beta (es decir, GLM con distribución beta y generalmente la función de enlace logit) a menudo se recomienda para tratar la respuesta, también conocida como variable dependiente que toma valores entre 0 y 1, como fracciones, razones o probabilidades: regresión para un resultado (relación o fracción) entre 0 …



2
¿Qué explica una gráfica de variable agregada (gráfica de regresión parcial) en una regresión múltiple?
Tengo un modelo de dataset de Películas y usé la regresión: model <- lm(imdbVotes ~ imdbRating + tomatoRating + tomatoUserReviews+ I(genre1 ** 3.0) +I(genre2 ** 2.0)+I(genre3 ** 1.0), data = movies) library(ggplot2) res <- qplot(fitted(model), resid(model)) res+geom_hline(yintercept=0) Lo que dio la salida: Ahora intenté trabajar por primera vez algo llamado …

1
Sesgo variable omitido en la regresión logística versus sesgo variable omitido en la regresión de mínimos cuadrados ordinarios
Tengo una pregunta sobre el sesgo variable omitido en la regresión logística y lineal. Digamos que omito algunas variables de un modelo de regresión lineal. Imagine que esas variables omitidas no están correlacionadas con las variables que incluí en mi modelo. Esas variables omitidas no sesgan los coeficientes en mi …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.