Me temo que las preguntas relacionadas no respondieron a las mías. Evaluamos el rendimiento de> 2 clasificadores (aprendizaje automático). Nuestra hipótesis nula es que los rendimientos no difieren. Realizamos pruebas paramétricas (ANOVA) y no paramétricas (Friedman) para evaluar esta hipótesis. Si son significativos, queremos averiguar qué clasificadores difieren en una búsqueda post-hoc.
Mi pregunta es doble:
1) ¿Es necesaria una corrección de los valores de p después de múltiples pruebas de comparación? El sitio alemán de Wikipedia en "Alphafehler Kumulierung" dice que el problema solo ocurre si se prueban múltiples hipótesis con los mismos datos. Al comparar los clasificadores (1,2), (1,3), (2,3), los datos solo se superponen parcialmente. ¿Sigue siendo necesario corregir los valores p?
2) La corrección del valor P a menudo se usa después de la prueba por pares con una prueba t. ¿También es necesario cuando se realizan pruebas post-hoc especializadas, como la prueba de HSD de Nemenyi (no paramétrica) o de Tukey? Esta respuesta dice "no" para el HSD de Tukey: ¿Corrige la prueba HSD de Tukey las comparaciones múltiples? . ¿Existe una regla o tengo que buscar esto para cada posible prueba post-hoc?
¡Gracias!