Tengo tres grupos de datos, cada uno con una distribución binomial (es decir, cada grupo tiene elementos que son exitosos o fallidos). No tengo una probabilidad pronosticada de éxito, sino que solo puedo confiar en la tasa de éxito de cada uno como una aproximación a la verdadera tasa de éxito. Solo he encontrado esta pregunta , que está cerca pero no parece abordar exactamente el escenario.
Para simplificar la prueba, digamos que tengo 2 grupos (3 pueden ampliarse a partir de este caso base).
- Ensayos del grupo 1: = 2455
- Grupo 2 ensayos: = 2730
- Grupo 1 exitoso: = 1556
- Grupo 2 exitoso: = 1671
No tengo una probabilidad de éxito esperada, solo lo que sé de las muestras. Entonces, mi tasa de éxito implícita para los dos grupos es:
- Tasa de éxito del Grupo 1: = 1556/2455 = 63.4%
- Grupo 2 tasa de éxito: = 1671/2730 = 61.2%
La tasa de éxito de cada una de las muestras es bastante cercana. Sin embargo, mis tamaños de muestra también son bastante grandes. Si reviso el CDF de la distribución binomial para ver qué tan diferente es de la primera (donde supongo que la primera es la prueba nula) tengo una probabilidad muy pequeña de que se pueda lograr la segunda.
En Excel:
1-BINOM.DIST (1556,2455,61.2%, VERDADERO) = 0.012
Sin embargo, esto no tiene en cuenta ninguna variación del primer resultado, solo supone que el primer resultado es la probabilidad de la prueba.
¿Hay una mejor manera de probar si estas dos muestras de datos son en realidad estadísticamente diferentes entre sí?
prop.test
: prop.test(c(1556, 1671), c(2455, 2730))
.