Preguntas etiquetadas con post-hoc

"post-hoc" se refiere a los análisis que se deciden después de que se hayan recopilado los datos, en oposición a "a priori".


3
Interpretación del logaritmo transformador predictor y / o respuesta
Me pregunto si hace una diferencia en la interpretación si solo el dependiente, tanto el dependiente como el independiente, o solo las variables independientes se transforman logarítmicamente. Considere el caso de log(DV) = Intercept + B1*IV + Error Puedo interpretar el IV como el porcentaje de aumento, pero ¿cómo cambia …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

2
¿Cuáles son las diferencias prácticas entre los procedimientos de tasa de descubrimiento falso de Benjamini y Hochberg (1995) y Benjamini y Yekutieli (2001)?
Mi programa de estadísticas implementa los procedimientos de tasa de descubrimiento falso (FDR) de Benjamini & Hochberg (1995) y Benjamini & Yekutieli (2001). He hecho todo lo posible para leer el artículo posterior, pero es matemáticamente denso y no estoy razonablemente seguro de entender la diferencia entre los procedimientos. Puedo …





1
¿Por qué usar ANOVA en lugar de saltar directamente a las pruebas de comparaciones planificadas o post-hoc?
Mirando una situación ANOVA entre grupos, ¿qué obtienes al hacer una prueba ANOVA de este tipo primero, y luego hacer pruebas post-hoc (Bonferroni, Šidák, etc.) o comparaciones planificadas? ¿Por qué no omitir el paso ANOVA por completo? Entiendo que en tal situación, el único beneficio de ANOVA entre grupos es …

1
Pruebas post hoc después de Kruskal-Wallis: ¿La prueba de Dunn o Bonferroni corrigió las pruebas de Mann-Whitney?
Tengo alguna variable distribuida no gaussiana y necesito verificar si hay diferencias significativas entre los valores de esta variable en 5 grupos diferentes. He realizado un análisis de varianza unidireccional de Kruskal-Wallis (que resultó significativo) y luego tuve que verificar qué grupos eran significativamente diferentes. Como los grupos están ordenados …

2
¿Cómo puedo obtener un ANOVA general significativo pero no diferencias significativas por pares con el procedimiento de Tukey?
Realicé con R y ANOVA y obtuve diferencias significativas. Sin embargo, al verificar qué pares eran significativamente diferentes usando el procedimiento de Tukey, no obtuve ninguno de ellos. como puede ser esto posible? Aquí está el código: fit5_snow<- lm(Response ~ Stimulus, data=audio_snow) anova(fit5_snow) > anova(fit5_snow) Analysis of Variance Table Response: …


2
¿Cómo realizar una prueba post-hoc en el modelo lmer?
Este es mi marco de datos: Group <- c("G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3") Subject <- c("S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15") Value <- c(9.832217741,13.62390117,13.19671612,14.68552076,9.26683366,11.67886655,14.65083473,12.20969772,11.58494621,13.58474896,12.49053635,10.28208078,12.21945867,12.58276212,15.42648969,9.466436017,11.46582655,10.78725485,10.66159358,10.86701127,12.97863424,12.85276916,8.672953949,10.44587257,13.62135205,13.64038394,12.45778874,8.655142642,10.65925259,13.18336949,11.96595556,13.5552118,11.8337142,14.01763101,11.37502161,14.14801305,13.21640866,9.141392359,11.65848845,14.20350364,14.1829714,11.26202565,11.98431285,13.77216009,11.57303893) data <- data.frame(Group, Subject, Value) Luego ejecuto un modelo de efectos lineales mixtos para comparar la diferencia de los 3 grupos en "Valor", donde "Asunto" es el factor aleatorio: library(lme4) library(lmerTest) model <- lmer (Value~Group …
18 r  lme4-nlme  post-hoc 

2
¿Cómo se escriben los hallazgos post-hoc de Tukey?
¿Cuál es la forma correcta de escribir un resultado post-hoc de Tukey? ¿Hay varios ejemplos con resultados diferentes? Digamos que tiene Norte, Sur, Este y Oeste. North N=50 Mean=2.45 SD=3.9 std error=.577 LB=1.29 UB=3.62 South N=40 Mean=2.54 SD=3.8 std error=.576 LB=1.29 UB=3.63 East N=55 Mean=3.45 SD=3.7 std error=.575 LB=1.29 UB=3.64 …


6
¿Cuál es el problema con las pruebas post-hoc?
Mi profesor de estadística lo dice, todos los libros que miro lo afirman: las pruebas post-hoc no son científicas. Primero debe derivar una hipótesis de la teoría, y luego recopilar datos y analizarlos. Pero realmente no entiendo cuál es el problema. Supongamos que veo cifras de ventas para diferentes colores …
15 post-hoc 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.