Al igual que otras pruebas paramétricas, el análisis de varianza supone que los datos se ajustan a la distribución normal. Si su variable de medición no se distribuye normalmente, puede aumentar sus posibilidades de obtener un resultado falso positivo si analiza los datos con un anova u otra prueba que asume la normalidad. Afortunadamente, una anova no es muy sensible a las desviaciones moderadas de la normalidad; Los estudios de simulación, utilizando una variedad de distribuciones no normales, han demostrado que la tasa de falsos positivos no se ve muy afectada por esta violación del supuesto (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Esto se debe a que cuando toma una gran cantidad de muestras aleatorias de una población, la media de esas muestras se distribuye aproximadamente de manera normal, incluso cuando la población no es normal.
Es posible probar la bondad de ajuste de un conjunto de datos a la distribución normal. No sugiero que haga esto, porque muchos conjuntos de datos que son significativamente no normales serían perfectamente apropiados para una anova.
En cambio, si tiene un conjunto de datos lo suficientemente grande, le sugiero que mire el histograma de frecuencia. Si parece más o menos normal, siga adelante y realice una anova. Si parece una distribución normal que se ha desplazado hacia un lado, como los datos de sulfato anteriores, debe intentar diferentes transformaciones de datos y ver si alguno de ellos hace que el histograma se vea más normal. Si eso no funciona, y los datos aún se ven severamente no normales, probablemente todavía esté bien analizar los datos usando un anova. Sin embargo, es posible que desee analizarlo utilizando una prueba no paramétrica. Casi todas las pruebas estadísticas paramétricas tienen un sustituto no paramétrico, como la prueba de Kruskal-Wallis en lugar de una anova unidireccional, la prueba de rango con signo de Wilcoxon en lugar de una prueba t pareada y la correlación de rango de Spearman en lugar de la regresión lineal. Estas pruebas no paramétricas no asumen que los datos se ajustan a la distribución normal. Sin embargo, suponen que los datos en diferentes grupos tienen la misma distribución entre sí; Si diferentes grupos tienen distribuciones de diferentes formas (por ejemplo, uno está sesgado a la izquierda, otro está sesgado a la derecha), una prueba no paramétrica puede no ser mejor que una paramétrica.
Referencias
- Glass, GV, PD Peckham y JR Sanders. 1972. Consecuencias del incumplimiento de los supuestos subyacentes a los análisis de efectos fijos de varianza y covarianza. Rev. Educ. Res. 42: 237-288.
- Harwell, MR, EN Rubinstein, WS Hayes y CC Olds. 1992. Resumiendo los resultados de Monte Carlo en la investigación metodológica: los casos ANOVA de efectos fijos de uno y dos factores. J. Educ. Stat. 17: 315-339.
- Lix, LM, JC Keselman y HJ Keselman. 1996. Se revisaron las consecuencias de las infracciones de los supuestos: una revisión cuantitativa de alternativas al análisis unidireccional de la prueba de varianza F. Rev. Educ. Res. 66: 579-619.