En otros contextos, ortogonal significa "en ángulo recto" o "perpendicular".
¿Qué significa ortogonal en un contexto estadístico?
Gracias por cualquier aclaración.
En otros contextos, ortogonal significa "en ángulo recto" o "perpendicular".
¿Qué significa ortogonal en un contexto estadístico?
Gracias por cualquier aclaración.
Respuestas:
Significa que [las variables aleatorias X, Y] son 'independientes' entre sí. Las variables aleatorias independientes a menudo se consideran en 'ángulos rectos' entre sí, donde por 'ángulos rectos' se entiende que el producto interno de las dos es 0 (una condición equivalente del álgebra lineal).
Por ejemplo, en el plano XY, se dice que los ejes X e Y son ortogonales porque si el valor x de un punto dado cambia, digamos que va de (2,3) a (5,3), su valor y permanece igual (3), y viceversa. Por lo tanto, las dos variables son 'independientes'.
Ver también las entradas de Wikipedia para Independencia y Ortogonalidad.
No puedo hacer un comentario porque no tengo suficientes puntos, así que me veo obligado a decir lo que pienso como respuesta, por favor perdóname. Por lo poco que sé, no estoy de acuerdo con la respuesta seleccionada por @crazyjoe porque la ortogonalidad se define como
Entonces:
Si con pdf simétrico, son dependientes pero ortogonales.
Si pero pdf cero para valores negativos, entonces dependen pero no son ortogonales.
Por lo tanto, la ortogonalidad no implica independencia.
Si X e Y son independientes, entonces son ortogonales. Pero lo contrario no es cierto como lo señala el ejemplo inteligente de user497804. Para las definiciones exactas, consulte
Ortogonal: las variables aleatorias de valor complejo y se denominan ortogonales si satisfacenC 2 c o v ( C 1 , C 2 ) = 0
(Pág. 376, Probabilidad y procesos aleatorios por Geoffrey Grimmett y David Stirzaker)
Independiente: las variables aleatorias e son independientes si y solo si para todos
que, para variables aleatorias continuas, es equivalente a requerir que
(Página 99, Probabilidad y procesos aleatorios por Geoffrey Grimmett y David Stirzaker)
@Mien ya proporcionó una respuesta y, como señaló @whuber, ortogonal significa no correlacionado. Sin embargo, realmente deseo que la gente proporcione algunas referencias. Puede considerar útiles los siguientes enlaces, ya que explican el concepto de correlación desde una perspectiva geométrica.
Un sitio web de NIST (ref. A continuación) define ortogonal de la siguiente manera: "Un diseño experimental es ortogonal si los efectos de cualquier factor se equilibran (suman cero) entre los efectos de los otros factores".
En diseño estadístico, entiendo que ortogonal significa "no cofundado" o "no alias". Esto es importante al diseñar y analizar su experimento si desea asegurarse de que puede identificar claramente los diferentes factores / tratamientos. Si su experimento diseñado no es ortogonal, significa que no podrá separar por completo los efectos de los diferentes tratamientos. Por lo tanto, deberá realizar un experimento de seguimiento para desconfigurar el efecto. Esto se llamaría diseño aumentado o diseño comparativo.
La independencia parece ser una mala elección de palabras, ya que se utiliza en muchos otros aspectos del diseño y el análisis.
NIST Ref http://www.itl.nist.gov/div898/handbook/pri/section7/pri7.htm
Es muy probable que signifiquen "sin relación" si dicen "ortogonal"; Si dos factores son ortogonales (por ejemplo, en el análisis factorial), no están relacionados, su correlación es cero.
De acuerdo con http://terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf , la independencia lineal es una condición necesaria para la ortogonalidad o la falta de correlación. Pero hay distinciones más finas, en particular, la ortogonalidad no es falta de correlación.
En econometría, el supuesto de ortogonalidad significa que el valor esperado de la suma de todos los errores es 0. Todas las variables de un regresor son ortogonales a sus términos de error actuales.
Matemáticamente, el supuesto de ortogonalidad es .
En términos más simples, significa que un regresor es "perpendicular" al término de error.
Dos o más IV no relacionados (independientes) entre sí, pero ambos tienen una influencia en el DV. Cada IV por separado aporta un valor distinto al resultado, mientras que ambos o todos los IV también contribuyen de manera aditiva en la predicción de ingresos (ortogonal = influencia de IV no intersectante en un DV). Los IV no son correlacionales entre sí y generalmente se colocan en ángulo recto * ver el diagrama de Venn.
Ejemplo: Relación entre motivación y años de educación sobre ingresos.
IV = Años de educación IV = Motivación DV = Ingresos
Las variables aleatorias relacionadas significan que las variables dicen que X e Y pueden tener cualquier relación; puede ser lineal o no lineal. La independencia y las propiedades ortogonales son las mismas si las dos variables están relacionadas linealmente.