Nn
Para aclarar mi punto sobre el poder, aquí hay una simulación muy simple escrita para R:
set.seed(9) # this makes the simulation exactly reproducible
power5050 = vector(length=10000) # these will store the p-values from each
power7525 = vector(length=10000) # simulated test to keep track of how many
power9010 = vector(length=10000) # are 'significant'
for(i in 1:10000){ # I run the following procedure 10k times
n1a = rnorm(50, mean=0, sd=1) # I'm drawing 2 samples of size 50 from 2 normal
n2a = rnorm(50, mean=.5, sd=1) # distributions w/ dif means, but equal SDs
n1b = rnorm(75, mean=0, sd=1) # this version has group sizes of 75 & 25
n2b = rnorm(25, mean=.5, sd=1)
n1c = rnorm(90, mean=0, sd=1) # this one has 90 & 10
n2c = rnorm(10, mean=.5, sd=1)
power5050[i] = t.test(n1a, n2a, var.equal=T)$p.value # here t-tests are run &
power7525[i] = t.test(n1b, n2b, var.equal=T)$p.value # the p-values are stored
power9010[i] = t.test(n1c, n2c, var.equal=T)$p.value # for each version
}
mean(power5050<.05) # this code counts how many of the p-values for
[1] 0.7019 # each of the versions are less than .05 &
mean(power7525<.05) # divides the number by 10k to compute the %
[1] 0.5648 # of times the results were 'significant'. That
mean(power9010<.05) # gives an estimate of the power
[1] 0.3261
N=100n1=50n2=50n1=75n2=25n1=90n2=10. Tenga en cuenta además que el proceso estandarizado de diferencia de medias / generación de datos fue el mismo en todos los casos. Sin embargo, mientras que la prueba fue 'significativa' el 70% del tiempo para la muestra 50-50, la potencia fue del 56% con 75-25 y solo del 33% cuando los tamaños de los grupos fueron 90-10.
Pienso en esto por analogía. Si desea conocer el área de un rectángulo, y el perímetro es fijo, entonces el área se maximizará si la longitud y el ancho son iguales (es decir, si el rectángulo es un cuadrado ). Por otro lado, a medida que la longitud y el ancho divergen (a medida que el rectángulo se alarga), el área se contrae.