Respuestas:
Estos son dos fenómenos diferentes:
-estadística
Manteniendo todo lo demás constante, si aumenta la -valor debe aumentar como una simple cuestión de aritmética. Considere la fracción en el denominador,, Si se hace más grande, entonces también se hará más grande (aunque más lentamente), porque la raíz cuadrada es una transformación monotónica. Desde la raíz cuadrada dees el denominador de esa fracción, a medida que se hace más grande, la fracción se hará más pequeña. Sin embargo, esta fracción es, a su vez, un denominador. Como resultado, a medida que ese denominador se hace más pequeño, la segunda fracción se hace más grande. Por lo tanto, la-valor se hará más grande a medida que se hace más grande. (Suponiendo, de nuevo, que y permanece igual.)
¿Qué significa esto conceptualmente? Bueno, cuantos más datos tengamos / cuanto más se acerque el tamaño de la muestra al tamaño de la población, menos lejos la media de la muestra tenderá a variar de la media de la población debido a un error de muestreo (cf. la ley de los grandes números ). Con una población pequeña y finita, esto es fácil de ver, pero aunque no sea tan intuitivo, lo mismo ocurre si la población es infinita. Dado que la media de la muestra () no debería fluctuar muy lejos del valor de referencia (nulo), podemos estar más seguros de que la distancia observada entre la media de la muestra y la nula se debe a que el valor nulo no es en realidad la media de la población de la que se extrajo la muestra . Más exactamente, es cada vez menos probable haber encontrado una media muestral muy lejos o más lejos del valor nulo, si el valor nulo realmente fuera la media de la población de la cual se extrajo la muestra.
-distribución
Cuando miras un -table (digamos, en la parte posterior de un libro de estadísticas), lo que realmente está viendo es una tabla de valores críticos . Es decir, el valor que observaronla estadística debe ser mayor que para que la prueba sea "significativa" en ese alfa. (Por lo general, estos se enumeran para un pequeño número de posibles alfa:.) Sospecho que si miras detenidamente estas tablas, en realidad están pensando en términos de los grados de libertad asociados con elestadística en cuestión. Tenga en cuenta que los grados de libertad para el-estadística es una función de , siendo para un grupo dos -test o para un grupo -test (su ejemplo parece ser el último). Esto tiene que ver con el hecho de que el-distribución convergerá a una distribución normal estándar a medida que los grados de libertad se aproximen al infinito.
La manera de entender esto conceptualmente es pensar por qué necesita usar el -distribución en primer lugar. Usted sabe cuál es el valor medio de referencia que le interesa y la muestra significa que observó. Si la población de la que se extrajeron las muestras se distribuyó normalmente (lo que la gente suele suponer implícitamente), entonces sabemos que la distribución muestral de la media también se distribuirá normalmente. Entonces, ¿por qué molestarse con el-¿distribución? La respuesta es que no estamos seguros de cuál es la desviación estándar de la población. (Si estuviéramos seguros, realmente usaríamos la distribución normal, es decir, la-prueba en lugar de la -test.) Así que usamos nuestra desviación estándar de muestra, , como proxy del valor de población desconocido. Sin embargo, cuantos más datos tengamos, más seguros podemos estar de que es de hecho aproximadamente el valor correcto. Como se acerca al tamaño de la población (y / o infinito), podemos estar seguros de que de hecho es exactamente el valor correcto. Por lo tanto, la-distribución se convierte en la distribución normal .
Bueno, la respuesta corta es que eso es lo que cae de las matemáticas. La respuesta larga sería hacer los cálculos.. En cambio, trataré de reformular la explicación de Gung de que estas son dos cosas diferentes (aunque relacionadas).
Has recogido una muestra que normalmente se distribuye con varianza desconocida y quiero saber si su promedio es diferente de algún valor especificado . La forma de hacerlo es calcular un valor que represente cuán "diferentes" son sus observaciones del supuesto de que. Así, la fórmula para el-estadísticausted presentó Probablemente la forma más intuitiva de pensar por qué esto aumenta con es que tienes más "confianza" de que las cosas son diferentes cuando tienes más muestras.
Continuando, este valor sigue un -distribución con grados de libertad. La forma de pensar en esto es que el-la distribución es ligeramente diferente según el tamaño de la muestra. Puede ver gráficos de esta distribución con 2, 3, 5 y 20 df a continuación. Notarás que una df más alta tiene más masa en el centro y menos en las colas de la distribución (no tengo un razonamiento intuitivo de por qué las distribuciones se comportan de esta manera, lo siento). El critico-value es la ubicación x donde el área debajo de la curva es igual a un valor algo arbitrario de su elección (tradicionalmente 0.05). Estos valores están marcados en el gráfico como puntos. Entonces, para la curva verde (df = 5), el área debajo de la curva a la izquierda del punto verde izquierdo = 0.025, y el área debajo de la curva a la derecha del punto verde derecho = 0.025, para un total de 0.05.
Esta es la razón por la crítica -los valores disminuyen con el aumento de los grados de libertad: a medida que aumenta df, los valores críticos deben acercarse a cero para mantener la misma área debajo de la curva. Y como mencionó Gung, como df va a, la curva y los valores críticos se acercarán a los de una distribución normal estándar.
Así que ahora tienes tu valor crítico y tu -estadística, y puede realizar el -prueba. Si tu-estadística es mayor que el valor crítico, entonces puede hacer la declaración de que si realmente era cierto, entonces habría observado su muestra menos del 5% (o cualquier porcentaje arbitrario que eligió para calcular el valor crítico) del tiempo.
¿Por qué calculamos este valor en particular a partir de los muchos valores arbitrarios que podríamos calcular? Bueno, esto es lo que cae de un cálculo de una prueba de razón de probabilidad.
Si conocía la varianza de las muestras de antemano, el-estadística (siguiendo una distribución normal) mencionada por gung quedaría fuera de este cálculo en su lugar, y realizaría un -prueba
De nuevo, esto es lo que cae de las matemáticas.
Primer buen resultado de google: http://math.arizona.edu/~jwatkins/ttest.pdf
Resulta que la prueba t funciona incluso si ese supuesto no se cumple, pero eso es una digresión