Preguntas etiquetadas con covariance

La covarianza es una cantidad utilizada para medir la fuerza y ​​la dirección de la relación lineal entre dos variables. La covarianza no tiene escala y, por lo tanto, a menudo es difícil de interpretar; cuando se escala por las DE de las variables, se convierte en el coeficiente de correlación de Pearson.





9
¿Cómo y por qué funcionan la normalización y el escalado de características?
Veo que muchos algoritmos de aprendizaje automático funcionan mejor con la cancelación media y la ecualización de covarianza. Por ejemplo, las redes neuronales tienden a converger más rápido, y K-Means generalmente ofrece una mejor agrupación con características preprocesadas. No veo que la intuición detrás de estos pasos de preprocesamiento conduzca …

4
¿Covarianza e independencia?
Leí de mi libro de texto que no garantiza que X e Y sean independientes. Pero si son independientes, su covarianza debe ser 0. Todavía no se me ocurre ningún ejemplo adecuado; alguien podría proporcionar uno?cov ( X, Y) = 0cov(X,Y)=0\text{cov}(X,Y)=0


2
¿Qué dice la inversa de la matriz de covarianza sobre los datos? (Intuitivamente)
Tengo curiosidad sobre la naturaleza de Σ−1Σ−1\Sigma^{-1} . ¿Alguien puede decir algo intuitivo sobre "¿Qué dice Σ−1Σ−1\Sigma^{-1} sobre los datos?" Editar: Gracias por las respuestas Después de tomar algunos cursos excelentes, me gustaría agregar algunos puntos: Es una medida de la información, es decir, xTΣ−1xxTΣ−1xx^T\Sigma^{-1}x es la cantidad de información …

6
¿Por qué el denominador del estimador de covarianza no debería ser n-2 en lugar de n-1?
El denominador del estimador de varianza (imparcial) es ya que hay observaciones y solo se está estimando un parámetro.n−1n−1n-1nnn V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} Por la misma razón, me pregunto por qué el denominador de covarianza no debería ser cuando se estiman dos parámetros.n−2n−2n-2 Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}


3
¿Por qué la inversión de una matriz de covarianza produce correlaciones parciales entre variables aleatorias?
Escuché que se pueden encontrar correlaciones parciales entre variables aleatorias invirtiendo la matriz de covarianza y tomando celdas apropiadas de dicha matriz de precisión resultante (este hecho se menciona en http://en.wikipedia.org/wiki/Partial_correlation , pero sin una prueba) . ¿Por qué es este el caso?

4
¿Cómo asegurar las propiedades de la matriz de covarianza cuando se ajusta el modelo normal multivariado usando la máxima probabilidad?
Supongamos que tengo el siguiente modelo yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i donde yi∈RKyi∈RKy_i\in \mathbb{R}^K , xixix_i es un vector de variables explicativas, θθ\theta es los parámetros de la función no lineal fff y εi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma) , donde ΣΣ\Sigma naturalmente es K×KK×KK\times K matriz. El objetivo es el habitual para estimar θθ\theta y ΣΣ\Sigma . …




Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.