La división de muestras tal vez podría reducir el problema con la distribución de la estadística, pero no la elimina.
Su idea evita el problema de que las estimaciones serán "demasiado cercanas" en relación con los valores de la población porque se basan en la misma muestra.
No estás evitando el problema de que todavía son estimaciones. La distribución de la estadística de prueba no es la tabulada.
En este caso, aumenta la tasa de rechazo bajo nulo, en lugar de reducirlo drásticamente.
Una mejor opción es usar una prueba donde los parámetros no se suponen conocidos, como Shapiro Wilk.
Si está casado con un tipo de prueba de Kolmogorov-Smirnov, puede adoptar el enfoque de la prueba de Lilliefors.
Es decir, usar el estadístico KS pero hacer que la distribución del estadístico de prueba refleje el efecto de la estimación de parámetros: simule la distribución del estadístico de prueba bajo la estimación de parámetros. (Ya no es libre de distribución, por lo que necesita nuevas tablas para cada distribución).
http://en.wikipedia.org/wiki/Lilliefors_test
Liliefors usó la simulación para el caso normal y el caso exponencial, pero puede hacerlo fácilmente para cualquier distribución específica; en algo así como R es cuestión de momentos simular 10,000 o 100,000 muestras y obtener una distribución de la estadística de prueba bajo nulo.
[Una alternativa podría ser considerar el Anderson-Darling, que tiene el mismo problema, pero que, a juzgar por el libro de D'Agostino y Stephens ( Técnicas de bondad de ajuste ) parece ser menos sensible a él. Podrías adaptar la idea de Lilliefors, pero sugieren un ajuste relativamente simple que parece funcionar bastante bien.]
Pero todavía hay otros enfoques; Hay familias de pruebas suaves de bondad de ajuste, por ejemplo (ver el libro de Rayner y Best) que en varios casos específicos pueden tratar con la estimación de parámetros.
* el efecto aún puede ser bastante grande, tal vez más grande de lo que normalmente se consideraría aceptable; Momo tiene razón al expresar preocupación al respecto. Si una tasa de error tipo I más alta (y una curva de potencia más plana) es un problema, ¡entonces esto puede no ser una mejora!