En particular, me refiero al coeficiente de correlación momento-producto de Pearson.
En particular, me refiero al coeficiente de correlación momento-producto de Pearson.
Respuestas:
¿Cuál es la diferencia entre la correlación entre e Y y una regresión lineal que predice Y a partir de X ?
Primero, algunas similitudes :
Segundo, algunas diferencias :
lm
y cor.test
en R
, producirá valores p idénticos.
Aquí hay una respuesta que publiqué en el sitio web graphpad.com :
La correlación y la regresión lineal no son lo mismo. Considere estas diferencias:
En el caso del predictor único de regresión lineal, la pendiente estandarizada tiene el mismo valor que el coeficiente de correlación. La ventaja de la regresión lineal es que la relación puede describirse de tal manera que pueda predecir (en función de la relación entre las dos variables) el puntaje en la variable predicha dado cualquier valor particular de la variable predictora. En particular, una información que una regresión lineal le da que una correlación no es la intercepción, el valor de la variable predicha cuando el predictor es 0.
En resumen: producen resultados idénticos computacionalmente, pero hay más elementos que pueden interpretarse en la regresión lineal simple. Si está interesado en caracterizar simplemente la magnitud de la relación entre dos variables, utilice la correlación; si está interesado en predecir o explicar sus resultados en términos de valores particulares, probablemente desee una regresión.
El análisis de correlación solo cuantifica la relación entre dos variables ignorando cuál es la variable dependiente y cuál es independiente. Pero antes de aplicar la regresión, debe calcular el impacto de la variable que desea verificar en la otra variable.
Todas las respuestas dadas hasta ahora proporcionan información importante, pero no debe olvidarse que puede transformar los parámetros de uno en otro:
Por lo tanto, puede transformar ambos entre sí escalando y cambiando sus parámetros.
Un ejemplo en R:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
Citando a Altman DG, "Estadísticas prácticas para la investigación médica" Chapman & Hall, 1991, página 321: "La correlación reduce un conjunto de datos a un solo número que no guarda relación directa con los datos reales. La regresión es un método mucho más útil, con resultados que están claramente relacionados con la medición obtenida. La fuerza de la relación es explícita, y la incertidumbre se puede ver claramente a partir de intervalos de confianza o intervalos de predicción "
El análisis de regresión es una técnica para estudiar la causa del efecto de una relación entre dos variables. mientras que, el análisis de correlación es una técnica para estudiar la cuantificación de la relación entre dos variables.
La correlación es un índice (solo un número) de la fuerza de una relación. La regresión es un análisis (estimación de parámetros de un modelo y prueba estadística de su importancia) de la adecuación de una relación funcional particular. El tamaño de la correlación está relacionado con la precisión de las predicciones de la regresión.
Correlación es un término en una estadística que determina si existe una relación entre dos y luego el grado de relación. Su rango es de -1 a +1. Mientras que la regresión significa volver al promedio. A partir de la regresión, predecimos el valor manteniendo una variable dependiente y otra independiente, pero debe aclararse el valor de qué variable queremos predecir.