Me preguntaba si alguien podría dar un resumen conciso de las definiciones y usos de los valores p, el nivel de significación y el error tipo I.
Entiendo que los valores p se definen como "la probabilidad de obtener un estadístico de prueba al menos tan extremo como el que realmente observamos", mientras que un nivel de significancia es solo un valor de corte arbitrario para medir si el valor p es significativo o no . El error tipo I es el error de rechazar una hipótesis nula que era cierta. Sin embargo, no estoy seguro acerca de la diferencia entre el nivel de significación y el error tipo I, ¿no son el mismo concepto?
Por ejemplo, suponga un experimento muy simple en el que lanzo una moneda 1000 veces y cuento la cantidad de veces que cae en 'cara'. Mi hipótesis nula, H0, es que caras = 500 (moneda imparcial). Luego establecí mi nivel de significancia en alfa = 0.05.
Lanzo la moneda 1000 veces y luego calculo el valor p, si el valor p es> 0.05, no puedo rechazar la hipótesis nula y si el valor p es <0.05, entonces rechazo la hipótesis nula.
Ahora, si hice este experimento repetidamente, cada vez que calculo el valor p y rechazo o no rechazo la hipótesis nula y mantengo un recuento de cuántos rechacé / no pude rechazar, entonces terminaría rechazando el 5% de las hipótesis nulas que en realidad eran verdad, ¿es correcto? Esta es la definición de error de tipo I. Por lo tanto, el nivel de significancia en las pruebas de significancia de Fisher es esencialmente el error tipo I de las pruebas de hipótesis de Neyman-Pearson si realizó experimentos repetidos.
Ahora, en cuanto a los valores p, si obtuve un valor p de 0.06 de mi último experimento e hice varios experimentos y conté todos los que obtuve un valor p de 0 a 0.06, entonces tampoco tendría un ¿6% de probabilidad de rechazar una hipótesis nula verdadera?