¿Cuál es la relación entre ortogonal, correlación e independencia?


25

He leído un artículo que dice que cuando se usan contrastes planificados para encontrar medios que son diferentes en un ANOVA de una sola forma, las restricciones deben ser ortogonales para que no estén correlacionadas y eviten que se infle el error de tipo I.

No entiendo por qué ortogonal significaría no correlacionado bajo ninguna circunstancia. No puedo encontrar una explicación visual / intuitiva de eso, así que traté de entender estos artículos / respuestas

https://www.psych.umn.edu/faculty/waller/classes/FA2010/Readings/rodgers.pdf

¿Qué significa ortogonal en el contexto de las estadísticas?

pero para mí, se contradicen entre sí. El primero dice que si dos variables no están correlacionadas y / o son ortogonales, entonces son linealmente independientes, pero el hecho de que sean linealmente independientes no implica que no estén correlacionadas y / o sean ortogonales.

Ahora en el segundo enlace hay respuestas que dicen cosas como "ortogonal significa no correlacionado" y "Si X e Y son independientes, entonces son ortogonales. Pero lo contrario no es cierto".

Otro comentario interesante en el segundo enlace establece que el coeficiente de correlación entre dos variables es igual al coseno del ángulo entre los dos vectores correspondientes a estas variables, lo que implica que dos vectores ortogonales no están correlacionados por completo (lo cual no es el primer artículo). reclamaciones).

Entonces, ¿cuál es la verdadera relación entre independencia, ortogonal y correlación? Tal vez me perdí algo, pero no puedo descubrir qué es.


1
¿Ninguna de las respuestas a las preguntas que aparecen como "Vinculadas" y "Relacionadas" a la derecha de esta pregunta le satisface?
Dilip Sarwate

2
Los dos enlaces que proporcioné parecen proporcionar respuestas sólidas, pero establecen cosas diferentes, y cuando miro las preguntas relacionadas, puedo ver que las personas que dan respuestas están lejos de estar de acuerdo entre sí
Carl Levasseur,

2
La confusión / contradicción percibida podría deberse completamente a la diferencia entre independencia lineal e independencia estadística.
jona

1
Creo que las restricciones (ANOVA) deberían ser ortogonales es un aspecto vital de esta pregunta: no se trata solo de variables aleatorias. También hay un énfasis adicional en la "independencia" en comparación con la pregunta estrechamente relacionada que Xian sugirió como un posible duplicado (en esa pregunta, el OP declaró que entendían la "independencia", por lo que se dio por sentado en gran medida en las respuestas). Así que sugiero que no es un duplicado, y segundo @jona que la confusión bien puede estar envuelta en los múltiples significados de "independencia".
Silverfish

1
También creo que esto no es un duplicado. Esa pregunta no se refiere a la correlación, y la respuesta no detalla la posible diferencia entre la ortogonalidad y la falta de correlación. Además, como señaló el cartel, hay respuestas contradictorias dadas a diferentes preguntas relacionadas.
A. Donda

Respuestas:


39

La independencia es un concepto estadístico. Dos variables aleatorias e Y son estadísticamente independientes si su distribución conjunta es el producto de las distribuciones marginales, es decir, f ( x , y ) = f ( x ) f ( y ) si cada variable tiene una densidadXY

F(X,y)=F(X)F(y)
, o más generalmente F ( x , y ) = F ( x ) F ( y ) donde FF
F(X,y)=F(X)F(y)
F denota la función de distribución acumulativa de cada variable aleatoria.

La correlación es un concepto estadístico más débil pero relacionado. La correlación (Pearson) de dos variables aleatorias es la expectativa del producto de las variables estandarizadas, es decir, Las variablesnoestáncorrelacionadassiρ=0. Se puede demostrar que dos variables aleatorias que son independientes no están necesariamente correlacionadas, pero no al revés.

ρ=mi[X-mi[X]mi[(X-mi[X])2]Y-mi[Y]mi[(Y-mi[Y])2]].
ρ=0 0

La ortogonalidad es un concepto que se originó en la geometría y se generalizó en álgebra lineal y campos relacionados de las matemáticas. En álgebra lineal, la ortogonalidad de dos vectores y v se define en espacios de producto interior , es decir, los espacios vectoriales con un producto interno u , v , como la condición de que u , v = 0. El producto interior se pueden definir en diferentes formas (lo que resulta en diferentes espacios internos del producto). Si los vectores se dan en forma de secuencias de números, utuvtu,v

tu,v=0.
, a continuación, una opción típica es elproducto escalar,u , v = Σ n i = 1 u i v i .tu=(tu1,tu2,...tunorte)tu,v=yo=1nortetuyovyo

La ortogonalidad, por lo tanto, no es un concepto estadístico per se, y la confusión que observa probablemente se deba a las diferentes traducciones del concepto de álgebra lineal a las estadísticas:

a) Formalmente, un espacio de variables aleatorias puede considerarse como un espacio vectorial. Entonces es posible definir un producto interno en ese espacio, de diferentes maneras. Uno común elección es definir como la covarianza:

X,Y=doov(X,Y)=mi[(X-mi[X])(Y-mi[Y])].
Dado que la correlación de dos variables aleatorias es cero exactamente si la covarianza es cero, según esta definición, la falta de correlación es lo mismo que la ortogonalidad. (Otra posibilidad es definir el producto interno de variables aleatorias simplemente como la expectativa del producto ).

b) No todas las variables que consideramos en estadística son variables aleatorias. Especialmente en la regresión lineal, tenemos variables independientes que no se consideran aleatorias sino predefinidas. Las variables independientes generalmente se dan como secuencias de números, para las cuales la ortogonalidad se define naturalmente por el producto punto (ver arriba). Luego podemos investigar las consecuencias estadísticas de los modelos de regresión donde las variables independientes son o no ortogonales. En este contexto, la ortogonalidad no tiene una definición estadística específica, y aún más: no se aplica a variables aleatorias.

Además respondiendo al comentario de Silverfish: la ortogonalidad no solo es relevante con respecto a los regresores originales sino también con respecto a los contrastes, porque (conjuntos de) contrastes simples (especificados por vectores de contraste) pueden verse como transformaciones de la matriz de diseño, es decir, el conjunto de variables independientes, en un nuevo conjunto de variables independientes. La ortogonalidad para los contrastes se define a través del producto punto. Si los regresores originales son mutuamente ortogonales y uno aplica contrastes ortogonales, los nuevos regresores también son mutuamente ortogonales. Esto asegura que el conjunto de contrastes puede verse como una descripción de una descomposición de la varianza, por ejemplo, en los principales efectos e interacciones, la idea subyacente ANOVA .

Dado que de acuerdo con la variante a), la falta de correlación y la ortogonalidad son solo nombres diferentes para la misma cosa, en mi opinión, es mejor evitar usar el término en ese sentido. Si queremos hablar sobre la falta de correlación de las variables aleatorias, digamos eso y no complicamos las cosas usando otra palabra con un fondo diferente y diferentes implicaciones. Esto también libera el término ortogonalidad para ser usado de acuerdo con la variante b), lo cual es muy útil especialmente para discutir la regresión múltiple. Y al revés, debemos evitar aplicar el término correlación a variables independientes, ya que no son variables aleatorias.


r

He dispersado enlaces a las respuestas a las dos preguntas relacionadas en todo el texto anterior, lo que debería ayudarlo a ponerlas en el contexto de esta respuesta.


1
+1 Las distinciones que haces aquí son muy claras y útiles: disfruté leyendo la publicación completa.
whuber

+1 Me gustó cómo tejiste las otras respuestas que de otro modo podrían parecer contradictorias. Quizás en la parte (b) sería bueno mencionar algo específicamente sobre diseño experimental o ANOVA (ya que eso se mencionó en la pregunta del OP): no es inmediatamente obvio, en el contexto de su respuesta, por qué la "ortogonalidad" podría ser interesante o de hecho propiedad deseable de una variable independiente.
Silverfish

@Silverfish, tienes razón, intentaré agregar eso.
A. Donda

2
XYF()F(X)F(y)XYF()F(X)F(y)Xy
FX,Y(X,y)=FX(X)FY(y) para todos X y y,-<X,y<.

2
@DilipSarwate, puh-lease ...
A. Donda

0

Aquí está mi punto de vista intuitivo: afirmar que xey no están correlacionados / ortogonales son dos formas de decir que el conocimiento del valor de x o y no permite una predicción de la otra, x e y son independientes entre sí, suponiendo que cualquier relación es lineal

El coeficiente de correlación proporciona una indicación de qué tan bien el conocimiento de x (o y) nos permite predecir y (o x). Asumiendo relaciones lineales.

En un plano, un vector a lo largo del eje X puede variar en magnitud sin cambiar su componente a lo largo del eje Y: los ejes X e Y son ortogonales y el vector a lo largo de X es ortogonal a cualquiera a lo largo de Y. Variando la magnitud de un vector no a lo largo de X, hará que los componentes X e Y varíen. El vector ya no es ortogonal a Y.

Si dos variables no están correlacionadas, son ortogonales y si dos variables son ortogonales, no están correlacionadas. La correlación y la ortogonalidad son formas simplemente diferentes, aunque equivalentes, algebraicas y geométricas, de expresar la noción de independencia lineal. Como analogía, considere la solución de un par de ecuaciones lineales en dos variables trazando (geométrico) y determinantes (algebraico).

Con respecto al supuesto de linealidad: sea x tiempo, sea y sea una función seno. Durante un período, x e y son ortogonales y no correlacionados utilizando los medios habituales para calcular ambos. Sin embargo, el conocimiento de x nos permite predecir y con precisión. La linealidad es un aspecto crucial de la correlación y la ortogonalidad.

Aunque no es parte de la pregunta, observo que la correlación y la no ortogonalidad no equivalen a causalidad. xey pueden correlacionarse porque ambos tienen alguna dependencia, posiblemente oculta, de una tercera variable. El consumo de helado aumenta en el verano, la gente va a la playa con más frecuencia en el verano. Los dos están correlacionados, pero ninguno "causa" al otro. Ver https://en.wikipedia.org/wiki/Correlation_does_not_imply_causation para más información sobre este punto.


La falta de correlación y la ortogonalidad son cosas diferentes. Puede verificar eso aquí - terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf
Yurii

0

Aquí está la relación: si X e Y no están correlacionados, entonces XE [X] es ortogonal a YE [Y].

A diferencia de que independiente es un concepto más fuerte de no correlacionado, es decir, independiente conducirá a que no se correlacionen, (no) ortogonales y (no) correlacionados puedan ocurrir al mismo tiempo. Ejemplo

Estoy siendo el TA de probabilidad este semestre, así que hago un video corto sobre Independencia, Correlación, Ortogonalidad.

https://youtu.be/s5lCl3aQ_A4

Espero eso ayude.


Esto no responde la pregunta.
Michael R. Chernick

Reviso la respuesta, espero que esto ayude ~ @ Michael Chernick
linan huang

@linanhuang ¿Gente de Larx?
YHH
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.