Hace un par de años, me habría suscrito completamente a la respuesta de @Michael Chernick.
Sin embargo, me di cuenta recientemente de que algunas implementaciones de la prueba t son extremadamente robustas para la desigualdad de las variaciones. En particular, en R la función t.test
tiene un parámetro predeterminado var.equal=FALSE
, lo que significa que no se basa simplemente en una estimación agrupada de la varianza. En cambio, utiliza los grados de libertad aproximados de Welch-Satterthwaite , que compensa las variaciones desiguales.
Veamos un ejemplo.
set.seed(123)
x <- rnorm(100)
y <- rnorm(100, sd=0.00001)
# x and y have 0 mean, but very different variance.
t.test(x,y)
Welch Two Sample t-test
data: x and y
t = 0.9904, df = 99, p-value = 0.3244
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.09071549 0.27152946
sample estimates:
mean of x mean of y
9.040591e-02 -1.075468e-06
Puede ver que R afirma realizar la prueba t de Welch y no la prueba t de Student . Aquí se afirma que el grado de libertad es 99, a pesar de que cada muestra tiene un tamaño de 100, por lo que aquí la función esencialmente prueba la primera muestra contra el valor fijo 0.
Puede verificar usted mismo que esta implementación proporciona valores p correctos ( es decir, uniformes) para dos muestras con variaciones muy diferentes.
Ahora, esto fue para una prueba t de dos muestras. Mi propia experiencia con ANOVA es que es mucho más sensible a la desigualdad de las variaciones. En ese caso, estoy totalmente de acuerdo con @Michael Chernick.