Preguntas etiquetadas con p-value

En la prueba de hipótesis frecuentista, el p-valor es la probabilidad de un resultado tan extremo (o más) que el resultado observado, bajo el supuesto de que la hipótesis nula es verdadera.


3
¿Cuál es una buena introducción a las pruebas de hipótesis estadísticas para informáticos?
Recientemente estuve expuesto a algunos métodos de prueba de hipótesis estadísticas (por ejemplo, la prueba de Friedman) en el trabajo, y me gustaría aumentar mi conocimiento sobre el tema. ¿Puede sugerir una buena introducción a la significación estadística / prueba de hipótesis estadísticas para un informático? Estoy pensando en un …





1
Elección entre diferentes regresiones robustas en R
Estoy escribiendo un programa para evaluar propiedades inmobiliarias y realmente no entiendo las diferencias entre algunos modelos de regresión robustos, por eso no sé cuál elegir. Probé lmrob, ltsRegy rlm. para el mismo conjunto de datos, los tres métodos me dieron valores diferentes para los coeficientes. Pensé que lo mejor …

2
¿Es la prueba de suma de rango de Wilcoxon la prueba correcta para ver si las donaciones totales difieren?
Antecedentes: Mi software solicita a los usuarios donaciones opcionales de cualquier cantidad. Dividí las solicitudes de donación de prueba entre los usuarios para encontrar la mejor manera de preguntar: 50% obtiene la versión 1 de la solicitud, 50% obtiene la versión 2 de la solicitud, y vemos cuál funciona mejor. …

2
Cálculo manual del valor p para la prueba t: cómo evitar valores mayores que
Estos dos métodos para calcular el valor p deberían ser equivalentes: t.test(rats.drug,mu=1.2)$p.value 2*pt((mean(rats.drug)-1.2)*sqrt(n)/sd(rats.drug),df=n-1) El problema con el segundo método es que existe el riesgo de obtener valores mayores que (de hecho, hasta ):111222 2*pt((1.5-1.2)*sqrt(100)/.5,df=100-1) [1] 2 Por supuesto, esto puede remediarse 2*pt((1.5-1.2)*sqrt(100)/.5,df=100-1,lower=F) [1] 3.245916e-08 Mi pregunta Obviamente, el algoritmo de …
8 r  t-test  p-value 

2
¿Es el valor p también la tasa de descubrimiento falso?
En http://surveyanalysis.org/wiki/Multiple_Comparisons_(Post_Hoc_Testing) dice Por ejemplo, si tenemos un valor p de 0.05 y concluimos que es significativo, la probabilidad de un descubrimiento falso es, por definición, 0.05. Mi pregunta: siempre pensé que el descubrimiento falso es un error de Tipo I, que es igual a los niveles de significancia elegidos …

1
Número requerido de permutaciones para un valor p basado en permutación
Si necesito calcular un valor basado en permutación con nivel de significancia , ¿cuántas permutaciones necesito?pagsppαα\alpha Del artículo "Pruebas de permutación para estudiar el rendimiento del clasificador" , página 5: En la práctica, el límite superior se usa típicamente para determinar el número de muestras requeridas para lograr la precisión …

2
¿Es la corrección de Bonferroni demasiado anticonservadora / liberal para algunas hipótesis dependientes?
Con frecuencia leo que la corrección de Bonferroni también funciona para hipótesis dependientes. Sin embargo, no creo que sea cierto y tengo un contraejemplo. ¿Puede alguien decirme (a) dónde está mi error o (b) si estoy en lo correcto? Configurar el ejemplo de contador Supongamos que estamos probando dos hipótesis. …

2
Combinando valores p de diferentes pruebas estadísticas aplicadas a los mismos datos
Aunque el título de la pregunta parece trivial, me gustaría explicar que no es tan trivial en el sentido de que es diferente de la cuestión de aplicar la misma prueba estadística en conjuntos de datos similares para probar contra una hipótesis nula total (metaanálisis, por ejemplo, utilizando el método …

3
Prueba post hoc en un ANOVA de diseño mixto 2x3 con SPSS?
Tengo dos grupos de 10 participantes que fueron evaluados tres veces durante un experimento. Para probar las diferencias entre los grupos y entre las tres evaluaciones, ejecuté un ANOVA de diseño mixto 2x3 con group(control, experimental), time(primero, segundo, tres) y group x time. Ambos timey groupresultaron significativos, además hubo una …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.