Las hipótesis nulas ejemplifican el significado de "Todos los modelos están equivocados, pero algunos son útiles". Probablemente sean más útiles si no se toman literalmente y fuera de contexto, es decir, es importante recordar el propósito epistémico de la nula. Si se puede falsificar, que es el objetivo pretendido, entonces la alternativa se vuelve más útil en comparación, aunque todavía es poco informativa. Si rechaza el valor nulo, está diciendo que el efecto probablemente no sea cero (o lo que sea, las hipótesis nulas también pueden especificar otros valores para la falsificación) ... entonces, ¿qué es entonces?
El tamaño del efecto que calcula es su mejor estimación puntual del parámetro de población. En general, las posibilidades deberían ser igualmente buenas de que se sobreestime o subestime, pero las posibilidades de que sea una diana de centro muerto son infinitesimales, como implica el comentario de @ Glen_b. Si por algún extraño giro del destino (o por construcción, de cualquier manera, supongo que estamos hablando hipotéticamente?) Su estimación cae directamente en , esto todavía no es mucha evidencia de que el parámetro no sea un valor diferente dentro de El intervalo de confianza. El significado del intervalo de confianza no cambia en función de la importancia de cualquier prueba de hipótesis, excepto en la medida en que puede cambiar la ubicación y el ancho de una manera relacionada.0.0¯
En caso de que no esté familiarizado con el aspecto de las estimaciones de tamaño del efecto para muestras de una población (simulada) cuya hipótesis nula es literalmente cierta (o en caso de que aún no la haya visto y solo esté aquí para un poco de entretenimiento estadístico) ), echa un vistazo a Danza de los valoresp Geoff Cumming . En caso de que esos intervalos de confianza no sean lo suficientemente estrechos para su gusto, he intentado simular algunos de los míos en R utilizando muestras generadas aleatoriamente, apenas tímidas de cada una de . Olvidé establecer una semilla, pero configuré y luego corrí tantas veces como me importaba antes de terminar esta respuesta, lo que me dio 6000 muestras al final. Aquí hay un histograma y una gráfica de densidad usando yn=1MN(0,1)x=c()
x=append(x,replicate(500,cor(rnorm(999999),rnorm(999999))))
hist(x,n=length(x)/100)
plot(density(x))
, respectivamente:
Como era de esperar, hay evidencia de una variedad de efectos distintos de cero que surgen de estas muestras aleatorias de una población con literalmente cero efecto, y estas estimaciones se distribuyen más o menos normalmente alrededor del parámetro verdadero ( skew(x)
= -.005, kurtosis(x)
= 2.85). Imagine que solo conoce el valor de su estimación de una muestra de , no el parámetro verdadero: ¿por qué esperaría que el parámetro esté más cerca de cero que su estimación en lugar de más? Su intervalo de confianza puede incluir el valor nulo, pero el valor nulo no es realmente más plausible que el valor de la distancia equivalente al tamaño del efecto de la muestra en la dirección opuesta, ¡y otros valores pueden ser más plausibles que eso, especialmente su estimación puntual!n=1M
Si, en la práctica, desea demostrar que un efecto es más o menos cero, debe definir cuánto más o menos está dispuesto a ignorar. Con estas enormes muestras que he simulado, la estimación de mayor magnitud que fue . Con muestras más realistas de , la más grande que encuentro entre las muestras de es . Una vez más, los residuos se distribuyen normalmente, por lo que son poco probables, pero el punto es que no son inverosímiles.|r|=.004n=9991M|r|=.14
Un IC probablemente sea más útil para la inferencia que un NHST en general. No solo representa cuán mala idea podría ser asumir que el parámetro es insignificantemente pequeño; representa una buena idea de cuál es realmente el parámetro. Todavía se puede decidir si esto es insignificante, pero también se puede tener una idea de cuán no insignificante podría ser. Para una mayor promoción de los intervalos de confianza, consulte Cumming (2014 , 2013) .
Referencias
: Cumming, G. (2013). Comprensión de las nuevas estadísticas: tamaños de efectos, intervalos de confianza y metanálisis . Routledge.
- Cumming, G. (2014). Las nuevas estadísticas: por qué y cómo. Ciencia psicológica, 25 (7), 7–29. Recuperado de http://pss.sagepub.com/content/25/1/7.full.pdf+html .