Preguntas etiquetadas con normal-distribution

La distribución normal o gaussiana tiene una función de densidad que es una curva simétrica en forma de campana. Es una de las distribuciones más importantes en estadística. Use la etiqueta [normalidad] para preguntar sobre las pruebas de normalidad.



2
¿Por qué ρ de Pearson es solo una medida exhaustiva de asociación si la distribución conjunta es multivariada normal?
Esta afirmación se planteó en la respuesta principal a esta pregunta . Creo que la pregunta del "por qué" es lo suficientemente diferente como para justificar un nuevo hilo. Buscar en Google "medida exhaustiva de asociación" no produjo ningún éxito, y no estoy seguro de lo que significa esa frase.

4
Valor esperado de la mediana muestral dada la media muestral
Deje denotar la mediana y deje que denote la media de una muestra aleatoria de tamaño de una distribución que es N (\ mu, \ sigma ^ 2) . ¿Cómo puedo calcular E (Y | \ bar {X} = \ bar {x}) ?YYYX¯X¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Intuitivamente, debido al supuesto de normalidad, tiene …

3
Cholesky versus descomposición propia para extraer muestras de una distribución normal multivariante
Me gustaría dibujar una muestra x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right) . Wikipedia sugiere usar una descomposición de Cholesky o Eigen , es decir, Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T o Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Y por lo tanto, la muestra se puede extraer mediante: x=D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} o x=QΛ−−√vx=QΛv \mathbf{x} …

1
¿Cómo simular desde una cópula gaussiana?
Supongamos que tengo dos distribuciones marginales univariadas, digamos FFF y GGG , que puedo simular. Ahora, construya su distribución conjunta usando una cópula gaussiana , denotada C(F,G;Σ)C(F,G;Σ)C(F,G;\Sigma) . Todos los parámetros son conocidos. ¿Existe algún método que no sea MCMC para simular a partir de esta cópula?


5
Comparación de la varianza de observaciones pareadas
Tengo observaciones emparejadas ( , ) extraídas de una distribución desconocida común, que tiene un primer y segundo momentos finitos, y es simétrica alrededor de la media.NNNXiXiX_iYiYiY_i Sea la desviación estándar de (incondicional en ), y lo mismo para Y. Me gustaría probar la hipótesis σXσX\sigma_XXXXYYYσYσY\sigma_Y H0H0H_0: σX=σYσX=σY\sigma_X = \sigma_Y …




1
Ventajas de Box-Muller sobre el método CDF inverso para simular la distribución normal?
Para simular una distribución normal a partir de un conjunto de variables uniformes, existen varias técnicas: El algoritmo Box-Muller , en el que se toman muestras de dos variables uniformes independientes en (0,1)(0,1)(0,1) y se transforman en dos distribuciones normales estándar independientes a través de: Z0=−2lnU1−−−−−−√cos(2πU0)Z1=−2lnU1−−−−−−√sin(2πU0)Z0=−2lnU1cos(2πU0)Z1=−2lnU1sin(2πU0) Z_0 = \sqrt{-2\text{ln}U_1}\text{cos}(2\pi U_0)\\ …

2
Simulación de sorteos de una distribución uniforme utilizando sorteos de una distribución normal
Recientemente compré un recurso de entrevista de ciencia de datos en el que una de las preguntas de probabilidad era la siguiente: Dados sorteos de una distribución normal con parámetros conocidos, ¿cómo puede simular sorteos de una distribución uniforme? Mi proceso de pensamiento original fue que, para una variable aleatoria …


1
¿Cuál es la intuición detrás de las muestras intercambiables bajo la hipótesis nula?
Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de prueba no paramétrica como Mann-Whitney-U-testconduciría a la …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.