Preguntas etiquetadas con false-discovery-rate

Una fracción esperada de hipótesis nulas rechazadas que se rechazan falsamente, es decir, la fracción de hallazgos significativos que en realidad no son ciertos. Un método para controlar FDR en pruebas múltiples es el procedimiento Benjamini-Hochberg.

5
El significado de "dependencia positiva" como condición para usar el método habitual para el control FDR
Benjamini y Hochberg desarrollaron el primer método (y aún más utilizado, creo) para controlar la tasa de descubrimiento falso (FDR). Quiero comenzar con un montón de valores de P, cada uno para una comparación diferente, y decidir cuáles son lo suficientemente bajos como para ser llamados un "descubrimiento", controlando el …

2
¿Cuáles son las diferencias prácticas entre los procedimientos de tasa de descubrimiento falso de Benjamini y Hochberg (1995) y Benjamini y Yekutieli (2001)?
Mi programa de estadísticas implementa los procedimientos de tasa de descubrimiento falso (FDR) de Benjamini & Hochberg (1995) y Benjamini & Yekutieli (2001). He hecho todo lo posible para leer el artículo posterior, pero es matemáticamente denso y no estoy razonablemente seguro de entender la diferencia entre los procedimientos. Puedo …

5
¿Cómo debe pensar un investigador individual sobre la tasa de descubrimiento falso?
He estado tratando de entender cómo la tasa de descubrimiento falso (FDR) debería informar las conclusiones del investigador individual. Por ejemplo, si su estudio tiene poca potencia, ¿debería descontar sus resultados incluso si son significativos en ? Nota: estoy hablando del FDR en el contexto de examinar los resultados de …

3
¿Por qué las correcciones de hipótesis múltiples no se aplican a todos los experimentos desde los albores del tiempo?
Sabemos que debemos aplicar correcciones tipo Benjamini Hochberg para pruebas de hipótesis múltiples a experimentos basados ​​en un solo conjunto de datos, para controlar la tasa de descubrimiento falso, de lo contrario, todos los experimentos que den un resultado positivo podrían ser falsos. Pero, ¿por qué no aplicamos este mismo …


2
FPR (tasa de falsos positivos) vs FDR (tasa de falsos descubrimientos)
La siguiente cita proviene del famoso trabajo de investigación Significación estadística para estudios de genoma amplio de Storey y Tibshirani (2003): Por ejemplo, una tasa de falsos positivos del 5% significa que, en promedio, el 5% de las características verdaderamente nulas en el estudio se denominarán significativas. Un FDR (tasa …


1
¿Significado en lenguaje sencillo de pruebas "dependientes" e "independientes" en la literatura de comparaciones múltiples?
Tanto en la literatura de la tasa de error familiar (FWER) como de la tasa de descubrimiento falso (FDR), se dice que métodos particulares para controlar FWER o FDR son apropiados para pruebas dependientes o independientes. Por ejemplo, en el artículo de 1979 "Un procedimiento de prueba múltiple secuencialmente rechazado …


1
¿Cuál es la intuición detrás de las muestras intercambiables bajo la hipótesis nula?
Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de prueba no paramétrica como Mann-Whitney-U-testconduciría a la …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 






Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.