Prueba post hoc en un ANOVA de diseño mixto 2x3 con SPSS?


8

Tengo dos grupos de 10 participantes que fueron evaluados tres veces durante un experimento. Para probar las diferencias entre los grupos y entre las tres evaluaciones, ejecuté un ANOVA de diseño mixto 2x3 con group(control, experimental), time(primero, segundo, tres) y group x time. Ambos timey groupresultaron significativos, además hubo una interacción significativa group x time.

No sé muy bien cómo proceder para verificar las diferencias entre los tres tiempos de evaluaciones, también con respecto a la membresía grupal. De hecho, al principio solo especifiqué en las opciones del ANOVA para comparar todos los efectos principales, usando la corrección de Bonferroni. Sin embargo, luego me di cuenta de que de esta manera se compararon las diferencias en el tiempo de la muestra total, sin distinción de grupo, ¿estoy en lo cierto?

Por lo tanto, busqué mucho en Internet para encontrar una posible solución, pero con escasos resultados. ¡Solo encontré 2 casos similares al mío, pero sus soluciones son opuestas!

  1. En un artículo, después del diseño mixto, los autores realizaron 2 medidas repetidas ANOVA como post-hoc, una para cada grupo de sujetos. De esta manera, los dos grupos se analizan por separado sin ninguna corrección, ¿estoy en lo cierto?
  2. En una guía en Internet, dicen agregar manualmente en la sintaxis SPSS COMPARE(time) ADJ(BONFERRONI), justo después /EMMEANS=TABLES(newgroup*time), mientras se ejecuta el ANOVA mixto. De esta manera, las tres veces se comparan por separado para cada grupo, con la corrección de Bonferroni, ¿estoy en lo cierto?

¿Qué piensas? ¿Cuál sería la forma correcta de proceder?

anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 


Texto maestro de Winer (1962) sobre estadísticas. proporciona fórmulas para los términos de errores que se utilizarán en las comparaciones post hoc siguiendo muchos tipos de ANOVA, incluido este.

Hola @StuartMcKelvie, ¿podrías dar más detalles? Tal como está, su respuesta apenas puede ser utilizada por el OP o los futuros visitantes. (Además, no proporciona una referencia para Winer [1962], y dado que es tan antiguo, puede que no sea fácil de encontrar.)
Patrick Coulombe

Encontré este capítulo gratuito de IBM SPSS Statistics (18 y 19): Workbook psychtestingonline.com/PDFDownloader.aspx?pdf=3 Se trata exactamente de su caso
sviter

Estoy teniendo exactamente el mismo problema. ¿Decidiste un método particular al final? Gracias.
Laoise Ní Chléirigh

Respuestas:


2

Respuesta editada para implementar comentarios alentadores y constructivos por @Ferdi

Me gustaría:

  1. proporcionar una respuesta con un script completo
  2. mencionar que también se pueden probar contrastes personalizados más generales usando el comando / TEST
  3. argumentan que esto es necesario en algunos casos (es decir, la combinación EMMEANS COMPARE no es suficiente)

Supongo que tengo una base de datos con columnas: depV, Group, F1, F2. Implemento un ANOVA de diseño mixto 2x2x2 donde depV es la variable dependiente, F1 y F2 están dentro de los factores de sujeto y Group es un factor entre sujetos. Además, supongo que la prueba F ha revelado que la interacción Grupo * F2 es significativa. Por lo tanto, necesito usar pruebas t post hoc para comprender qué impulsa la interacción.

MIXED depV BY Group F1 F2 
  /FIXED=Group F1 F2 Group*F1 Group*F2 F1*F2 Group*F1*F2 |  SSTYPE(3) 
  /METHOD=REML 
  /RANDOM=INTERCEPT | SUBJECT(Subject) COVTYPE(VC) 
  /EMMEANS=TABLES(Group*F2) COMPARE(Group) ADJ(Bonferroni)
  /TEST(0) = 'depV(F2=1)-depV(F2=0) differs between groups' 
    Group*F2 1/4 -1/4 -1/4 1/4 
    Group*F1*F2 1/8 -1/8 1/8 -1/8 -1/8 1/8 -1/8 1/8 
  /TEST(0) = 'depV(Group1, F2=1)-depV(Group2, F2=1)' Group 1 -1
    Group*F1 1/2 1/2 -1/2 -1/2 
    Group*F2 1 0 -1 0  
    Group*F1*F2 1/2 0 1/2 0 -1/2 0 -1/2 0 .

En particular, la segunda prueba t corresponde a la realizada por el comando EMMEANS. La comparación EMMEANS podría revelar, por ejemplo, que depV era mayor en el Grupo 1 con la condición F2 = 1.

Sin embargo, la interacción también podría ser impulsada por otra cosa, que se verifica mediante la primera prueba: la diferencia depV (F2 = 1) -depV (F2 = 0) difiere entre los grupos, y este es un contraste que no puede verificar con el comando EMMEANS (Al menos no encontré una manera fácil).

Ahora, en modelos con muchos factores, es un poco complicado escribir la línea / TEST, la secuencia de 1/2, 1/4, etc., llamada matriz L. Normalmente, si recibe el mensaje de error: "la matriz L no es estimable", está olvidando algunos elementos. Un enlace que explica el recibo es este: https://stats.idre.ucla.edu/spss/faq/how-can-i-test-contrasts-and-interaction-contrasts-in-a-mixed-model/


Que gran respuesta. Puede hacerlo aún mejor si 1. resume el contenido de su enlace y 2. explica lo que está haciendo estadísticamente
Ferdi

1

No conozco la sintaxis de SPSS particularmente bien, pero, si entiendo su situación correctamente, la interacción significativa significa que, para evaluar adecuadamente la importancia de sus efectos principales, deberá realizar análisis por separado. Creo que la mejor manera de proceder es hacer análisis de medidas repetidas por separado para cada nivel en su factor de agrupación. Quizás alguien más pueda hablar mejor sobre la cuestión de cómo manejar la corrección para comparaciones múltiples durante el análisis post-hoc, pero estoy bastante seguro de que aún necesita usar una corrección. ¡Puede probar Tukey's, como una corrección de comparación múltiple!


Gracias por su respuesta. Si entendí correctamente, sugiere la solución 1), realizar dos ANOVAs de medidas repetidas separadas, una para cada grupo, con el tiempo como variable independiente de los sujetos (3 niveles) y luego, si es significativo, comparar los efectos principales con la corrección de Tukey (o Bonferroni, supongo, ¿no está bien?). ¿Lo he entendido bien?
Federico

En este caso, usando SPSS seleccioné "Datos / Dividir archivo ..." e ingresé la variable de agrupación. ¿Es esto correcto? De esta manera, encontré un ANOVA ligeramente significativo (p = 0.044) para el grupo de control, pero las comparaciones de Bonferroni (no me permite hacer Tukey) no son significativas ... ¿Cómo debería explicar esto? ¿El resultado ANOVA es un error de tipo I?
Federico

1

En breve. No existe una convención globalmente aceptada para estas situaciones. Algunos usarán correcciones de Bonferroni. Algunos obligarán al marco Tukey HSD a bailar para ellos (por ejemplo, Maxwell y Delaney). A diferencia de...

COMPARE(time) ADJ(BONFERRONI)", just after "/EMMEANS=TABLES(newgroup*time)

... parece usar la corrección de Bonferroni. Sin embargo, este enfoque es probablemente conservador, especialmente frente a las correcciones de estilo Holm-Sidak. (ESPECIALMENTE si no usa el MSW como término de error para sus comparaciones post-hoc).

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.