El otro día, un seminario web realizado por una compañía de pruebas a / b hizo que su "Científico de datos" residente explicara que debe validar sus resultados volviendo a ejecutar el experimento. La premisa era que, si selecciona un 95% de confianza, hay un 5% (1/20) de probabilidad de un falso positivo. Si vuelve a ejecutar su experimento con las mismas restricciones, ahora hay un 1/400 (supongo que lo determinaron como 0.05 ^ 2 = 1/400)
¿Es esta una declaración válida? (es decir, "correr dos veces, dos victorias de significancia estadística = 1/400 de probabilidad de falso positivo")? ¿Habría sido un mejor enfoque para aumentar su nivel de importancia?
Desde el punto de vista comercial, la preocupación que tengo es volver a ejecutar el experimento, exponer a más usuarios a una página inferior (tratamiento) y, por lo tanto, perder las ventas potenciales.