Esto es algo que puede ser difícil de entender:
- si en promedio el 95% de todos los intervalos de confianza contendrán el parámetro
- y tengo un intervalo de confianza específico
- ¿Por qué no es la probabilidad de que este intervalo contenga el parámetro también 95%?
Un intervalo de confianza se relaciona con el procedimiento de muestreo. Si toma muchas muestras y calcula un intervalo de confianza del 95% para cada muestra, encontrará que el 95% de esos intervalos contienen la media de la población.
Esto es útil, por ejemplo, para los departamentos de calidad industrial. Esos tipos toman muchas muestras, y ahora tienen la confianza de que la mayoría de sus estimaciones estarán muy cerca de la realidad. Saben que el 95% de sus estimaciones son bastante buenas, pero no pueden decir eso sobre todas y cada una de las estimaciones específicas.
Compare esto con los dados rodantes: si lanzara 600 dados (justos), ¿cuántos 6 lanzaría? Su mejor conjetura es * 600 = 100.16
Sin embargo, si has lanzado UN dado, es inútil decir: "Hay una probabilidad de 1/6 o 16.6% de que ahora haya arrojado un 6". ¿Por qué? Porque el dado muestra un 6 o alguna otra figura. Has lanzado un 6, o no. Entonces la probabilidad es 1 o 0. La probabilidad no puede ser .16
Cuando se le preguntó antes del lanzamiento cuál sería la probabilidad de lanzar un 6 con UN dado, un Bayesiano respondería " " (basado en información previa: todos saben que un dado tiene 6 lados y una oportunidad igual de caer en cualquiera de ellos), pero un Frecuentista diría "No tengo idea" porque el frecuentismo se basa únicamente en los datos, no en los antecedentes o cualquier información externa.16
Del mismo modo, si solo tiene 1 muestra (por lo tanto, 1 intervalo de confianza), no tiene forma de decir qué tan probable es que la media de la población esté en ese intervalo. La media (o cualquier parámetro) está en ella o no. La probabilidad es 1 o 0.
Además, no es correcto que los valores dentro del intervalo de confianza sean más probables que aquellos fuera de eso. Hice una pequeña ilustración; todo se mide en ° C. Recuerde, el agua se congela a 0 ° C y hierve a 100 ° C.
El caso: en un lago frío, nos gustaría estimar la temperatura del agua que fluye debajo del hielo. Medimos la temperatura en 100 ubicaciones. Aquí están mis datos:
- 0.1 ° C (medido en 49 ubicaciones);
- 0.2 ° C (también en 49 ubicaciones);
- 0 ° C (en 1 lugar. Esto era agua a punto de congelarse);
- 95 ° C (en un lugar, hay una fábrica que descarga ilegalmente agua muy caliente en el lago).
- Temperatura media: 1.1 ° C;
- Desviación estándar: 1.5 ° C;
- 95% -CI: (-0.8 ° C ...... + 3.0 ° C).
Las temperaturas dentro de este intervalo de confianza definitivamente NO son más probables que las de afuera. La temperatura promedio del agua que fluye en este lago NO PUEDE ser más fría que 0 ° C, de lo contrario no sería agua sino hielo. Una parte de este intervalo de confianza (es decir, la sección de -0.8 a 0) en realidad tiene un 0% de probabilidad de contener el parámetro verdadero.
En conclusión: los intervalos de confianza son un concepto frecuente y, por lo tanto, se basan en la idea de muestras repetidas. Si muchos investigadores tomarían muestras de este lago, y si todos esos investigadores calcularan los intervalos de confianza, entonces el 95% de esos intervalos contendrán el parámetro verdadero. Pero para un solo intervalo de confianza es imposible decir qué tan probable es que contenga el parámetro verdadero.