Preguntas etiquetadas con r-squared

El coeficiente de determinación, generalmente simbolizado por R2, es la proporción de la varianza de respuesta total explicada por un modelo de regresión. También se puede utilizar para varios pseudo R-cuadrados propuestos, por ejemplo, para regresión logística (y otros modelos).

6
¿
Estaba hojeando algunas notas de clase de Cosma Shalizi (en particular, la sección 2.1.1 de la segunda clase ), y me recordó que puedes obtener muy bajo incluso cuando tienes un modelo completamente lineal.R2R2R^2 Parafraseando el ejemplo de Shalizi: suponga que tiene un modelo , donde es conocida. Entonces \ …


2
La eliminación del término de intercepción estadísticamente significativo aumenta en el modelo lineal
En un modelo lineal simple con una sola variable explicativa, αi=β0+β1δi+ϵiαi=β0+β1δi+ϵi\alpha_i = \beta_0 + \beta_1 \delta_i + \epsilon_i Encuentro que eliminar el término de intercepción mejora mucho el ajuste (el valor de va de 0.3 a 0.9). Sin embargo, el término de intercepción parece ser estadísticamente significativo.R2R2R^2 Con intercepción: Call: …

3
¿Cuándo es R al cuadrado negativo?
Entiendo que no puede ser negativo ya que es el cuadrado de R. Sin embargo, ejecuté una regresión lineal simple en SPSS con una sola variable independiente y una variable dependiente. Mi salida SPSS me da un valor negativo para . Si tuviera que calcular esto a mano desde R, …


3
Interpretación del logaritmo transformador predictor y / o respuesta
Me pregunto si hace una diferencia en la interpretación si solo el dependiente, tanto el dependiente como el independiente, o solo las variables independientes se transforman logarítmicamente. Considere el caso de log(DV) = Intercept + B1*IV + Error Puedo interpretar el IV como el porcentaje de aumento, pero ¿cómo cambia …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

5
Relación entre
Digamos que tengo dos matrices unidimensionales, y . Cada uno contiene 100 puntos de datos. son los datos reales, y es la predicción del modelo. En este caso, el valor sería: Mientras tanto, esto sería igual al valor cuadrado del coeficiente de correlación, Ahora si cambio los dos: son los …

1
calculado manualmente
Sé que esto es bastante específico Rpregunta, pero puede estar pensando en proporción de varianza explicado, R2R2R^2 , de forma incorrecta. Aquí va. Estoy tratando de usar el Rpaquete randomForest. Tengo algunos datos de entrenamiento y datos de prueba. Cuando ajusto un modelo de bosque aleatorio, la randomForestfunción le permite …



5
Cómo lidiar con datos jerárquicos / anidados en el aprendizaje automático
Explicaré mi problema con un ejemplo. Suponga que desea predecir el ingreso de un individuo dados algunos atributos: {Edad, Sexo, País, Región, Ciudad}. Tienes un conjunto de datos de entrenamiento como este train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

4
Fórmula Pseudo R al cuadrado para GLM
Encontré una fórmula para pseudo en el libro Extending the Linear Model with R, Julian J. Faraway (p. 59).R2R2R^2 1 - Desviación residualDesviación nula1-Desviación residualDesviación nula1-\frac{\text{ResidualDeviance}}{\text{NullDeviance}} . ¿Es esta una fórmula común para pseudo para GLM?R2R2R^2

2
¿Cuál es la distribución de
¿Cuál es la distribución del coeficiente de determinación, o R al cuadrado, , en regresión múltiple univariada lineal bajo la hipótesis nula ?R 2 H 0 : β = 0R2R^2H0:β=0H_0:\beta=0 ¿Cómo depende de la cantidad de predictores y la cantidad de muestras ? ¿Existe una expresión de forma cerrada para …


1
Interpretación geométrica del coeficiente de correlación múltiple
Estoy interesado en el significado geométrico de la correlación múltiple RRR y el coeficiente de determinación R2R2R^2 en la regresión yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i , o en notación vectorial , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Aquí la matriz de diseño …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.