Respuesta corta: muy poco robusta. La correlación es una medida de dependencia lineal , y cuando una variable no se puede escribir como una función lineal de la otra (y todavía tiene la distribución marginal dada), no se puede tener una correlación perfecta (positiva o negativa). De hecho, los posibles valores de correlación pueden estar severamente restringidos.
El problema es que, si bien la correlación de la población siempre está entre y , el rango exacto alcanzable depende en gran medida de las distribuciones marginales. Una prueba rápida y una demostración:1−11
Rango alcanzable de la correlación
Si tiene la función de distribución y las funciones de distribución marginal y , existen algunos límites superiores e inferiores bastante agradables para ,
llamado límites de Fréchet. Estos son
(Intenta demostrarlo; no es muy difícil).(X,Y)HFGH
H−(x,y)≤H(x,y)≤H+(x,y),
H−(x,y)H+(x,y)=max(F(x)+G(y)−1,0)=min(F(x),G(y)).
Los límites son en sí mismos funciones de distribución. Deje que tenga una distribución uniforme. El límite superior es la función de distribución de y el límite inferior es la función de distribución de .( X , Y ) = ( F - ( U ) , G - ( U ) ) ( F - ( - U ) , G - ( 1 - U ) )U(X,Y)=(F−(U),G−(U))(F−(−U),G−(1−U))
Ahora, usando esta variante en la fórmula para la covarianza,
vemos que obtenemos la correlación máxima y mínima cuando es igual a y , respectivamente, es decir, cuando es a (positiva o negativamente, respectivamente ) función monótona de .H H + H - Y X
Cov(X,Y)=∬H(x,y)−F(x)G(y)dxdy,
HH+H−YX
Ejemplos
Aquí hay algunos ejemplos (sin pruebas):
Cuando y se distribuyen normalmente, se obtiene el máximo y el mínimo cuando tiene la costumbre de distribución normal bivariada donde se escribe como una función lineal de . Es decir, obtenemos el máximo para
Aquí los límites son (por supuesto) y , sin importar qué medios y variaciones tengan eY ( X , Y ) Y X Y = μ Y + σ Y X - μ XXY(X,Y)YX-11XY
Y=μY+σYX−μXσX.
−11XY
Cuando y tienen distribuciones logarítmicas normales, el límite inferior nunca es alcanzable, ya que ello implica que podría ser escrito para algunos y positivo , y nunca puede ser negativo. Existen fórmulas (ligeramente feas) para los límites exactos, pero permítanme dar un caso especial. Cuando e tienen distribuciones lognormales estándar (lo que significa que cuando se exponen, son normales estándar), el rango alcanzable es . (En general, el límite superior también está restringido).Y Y Y = a - b X a b Y X Y [ - 1 / e , 1 ] ≈ [ - 0.37 , 1 ]XYYY=a−bXabYXY[−1/e,1]≈[−0.37,1]
Cuando tiene una distribución normal estándar e tiene una distribución lognormal estándar, los límites de correlación son
Y ± 1XY
±1e−1−−−−√≈0.76.
Tenga en cuenta que todos los límites son para la correlación de la población . La correlación de la muestra puede extenderse fácilmente fuera de los límites, especialmente para muestras pequeñas (ejemplo rápido: tamaño de muestra de 2).
Estimando los límites de correlación
En realidad, es bastante fácil estimar los límites superior e inferior de la correlación si puede simular a partir de las distribuciones marginales. Para el último ejemplo anterior, podemos usar este código R:
> n = 10^5 # Sample size: 100,000 observations
> x = rnorm(n) # From the standard normal distribution
> y = rlnorm(n) # From the standard lognormal distribution
>
> # Estimated maximum correlation
> cor( sort(x), sort(y) )
0.772
>
> # Estimated minimum correlation
> cor( sort(x), sort(y, decreasing=TRUE) )
−0.769
Si solo tenemos datos reales y no conocemos las distribuciones marginales, aún podemos usar el método anterior. No es un problema que las variables sean dependientes siempre que los pares de observaciones sean dependientes. Pero ayuda tener muchos pares de observación.
Transformando los datos
Por supuesto, es posible transformar los datos para que estén (marginalmente) normalmente distribuidos y luego calcular la correlación en los datos transformados. El problema es de interpretabilidad. (¿Y por qué usar la distribución normal en lugar de cualquier otra distribución donde puede ser una función lineal de ?) Para los datos que son bivariados normalmente distribuidos, la correlación tiene una buena interpretación (su cuadrado es la varianza de una variable explicada por la otra ) Este no es el caso aquí.XYX
Lo que realmente está haciendo aquí es crear una nueva medida de dependencia que no dependa de las distribuciones marginales; es decir, está creando una medida de dependencia basada en cópula . Ya existen varias medidas de este tipo, siendo ρ de Spearman y τ de Kendall las más conocidas. (Si está realmente interesado en los conceptos de dependencia, no es una mala idea buscar cópulas).
En conclusión
Algunas reflexiones y consejos finales: solo mirar la correlación tiene un gran problema: hace que dejes de pensar. Mirar los diagramas de dispersión, por otro lado, a menudo te hace comenzar a pensar. Por lo tanto, mi consejo principal sería examinar los diagramas de dispersión y tratar de modelar la dependencia explícitamente.
Dicho esto, si necesita una medida simple de correlación, simplemente usaría ρ de Spearman (y el intervalo de confianza asociado y las pruebas). Su alcance no está restringido. Pero sea muy consciente de la dependencia no monótona. El artículo de Wikipedia sobre correlación tiene un par de buenas tramas que ilustran posibles problemas.