Estaba leyendo sobre el cálculo de la estimación imparcial de la desviación estándar y la fuente que leí decía
(...) excepto en algunas situaciones importantes, la tarea tiene poca relevancia para las aplicaciones de estadísticas, ya que su necesidad se evita mediante procedimientos estándar, como el uso de pruebas de significación e intervalos de confianza, o mediante el uso del análisis bayesiano.
Me preguntaba si alguien podría dilucidar el razonamiento detrás de esta declaración, por ejemplo, ¿el intervalo de confianza no utiliza la desviación estándar como parte del cálculo? Por lo tanto, ¿no se verían afectados los intervalos de confianza por una desviación estándar sesgada?
EDITAR:
Gracias por las respuestas hasta ahora, pero no estoy muy seguro de seguir algunas de las razones para ellas, así que agregaré un ejemplo muy simple. El punto es que si la fuente es correcta, entonces algo está mal desde mi conclusión hasta el ejemplo y me gustaría que alguien señale cómo el valor p no depende de la desviación estándar.
Suponga que un investigador desea evaluar si el puntaje promedio de los estudiantes de quinto grado en un examen en su ciudad difiere del promedio nacional de 76 con un nivel de significancia de 0.05. El investigador muestreó al azar los puntajes de 20 estudiantes. La media muestral fue 80.85 con una desviación estándar muestral de 8.87. Esto significa: t = (80.85-76) / (8.87 / sqrt (20)) = 2.44. Luego se usa una tabla t para calcular que el valor de probabilidad de dos colas en at de 2.44 con 19 df es 0.025. Esto está por debajo de nuestro nivel de significancia de 0.05, por lo que rechazamos la hipótesis nula.
Entonces, en este ejemplo, ¿no cambiaría el valor p (y tal vez su conclusión) dependiendo de cómo calculó su desviación estándar de la muestra?