No creo que la mayoría de estas respuestas realmente respondan la pregunta en general. Se limitan al caso cuando existe una hipótesis nula simple y cuando el estadístico de prueba tiene un CDF invertible (como en una variable aleatoria continua que tiene un CDF estrictamente creciente). Estos casos son los que la mayoría de las personas tienden a preocuparse con la prueba z y la prueba t, aunque para probar una media binomial (por ejemplo), uno no tiene dicho CDF. Lo que se proporciona arriba me parece correcto para estos casos restringidos.
Si las hipótesis nulas son compuestas, entonces las cosas son un poco más complicadas. La prueba más general de este hecho que he visto en el caso compuesto usando algunos supuestos con respecto a las regiones de rechazo se proporciona en "Pruebas de hipótesis estadísticas" de Lehmann y Romano, páginas 63-64. Trataré de reproducir el argumento a continuación ...
Probamos una hipótesis nula H0 frente a una hipótesis alternativa basada en una estadística de prueba, que vamos a denotamos como la variable aleatoria . Se supone que el estadístico de prueba proviene de alguna clase paramétrica, es decir, , donde es un elemento de la familia de distribuciones de probabilidad , y es un espacio de parámetros. La hipótesis nula y la hipótesis alternativa forman una partición de en esa
H1XX∼PθPθP≡{Pθ∣θ∈Θ}ΘH0:θ∈Θ0H1:θ∈Θ1ΘΘ=Θ0∪Θ1
donde
Θ0∩Θ1=∅.
El resultado de la prueba se puede denotar
donde para cualquier conjunto definimos
Aquí es nuestro nivel de significancia, y denota la región de rechazo de la prueba para el nivel de significancia .ϕα(X)=1Rα(X)
S1S(X)={1,0,X∈S,X∉S.
αRαα
Suponga que las regiones de rechazo satisfacen el
if . En este caso de regiones de rechazo anidadas, es útil determinar no solo si la hipótesis nula se rechaza o no en un nivel de significancia dado , sino también para determinar el nivel de significancia más pequeño para el cual se rechazaría la hipótesis nula. Este nivel se conoce como el valor p ,
este número nos da una idea de qué tan fuertes son los datos (tal como se muestra en el estadístico de prueba ) en contradicción con la hipótesis nula . Rα⊂Rα′
α<α′αp^=p^(X)≡inf{α∣X∈Rα},
XH0
Suponga que para some y que . Supongamos además que las regiones de rechazo obedecen la propiedad de anidamiento indicada anteriormente. Entonces se cumple lo siguiente:X∼Pθθ∈ΘH0:θ∈Θ0Rα
Si para todos , entonces para ,
supθ∈Θ0Pθ(X∈Rα)≤α0<α<1θ∈Θ0Pθ(p^≤u)≤ufor all0≤u≤1.
Si para tenemos para todos los , entonces para tenemos
θ∈Θ0Pθ(X∈Rα)=α0<α<1θ∈Θ0Pθ(p^≤u)=ufor all0≤u≤1.
Tenga en cuenta que esta primera propiedad solo nos dice que la tasa de falsos positivos se controla en al rechazar cuando el valor p es menor que , y la segunda propiedad nos dice (dado un supuesto adicional) que los valores p se distribuyen uniformemente bajo nulo hipótesis.uu
La prueba es como sigue:
Deje , y asuma para todos . Luego, por definición deθ∈Θ0supθ∈Θ0Pθ(X∈Rα)≤α0<α<1p^ , tenemos para todos . Por monotonicidad y suposición, se deduce que para todos . Dejando , se deduce que .{p^≤u}⊂{X∈Rv}u<vPθ(p^≤u)≤Pθ(X∈Rv)≤vu<vv↘uPθ(p^≤u)≤u
Dejar θ∈Θ0 y suponga que para todos los . Entonces , y por monotonicidad se deduce que . Considerando (1), se deduce que . Pθ(X∈Rα)=α0<α<1{X∈Ru}⊂{p^(X)≤u}u=Pθ(X∈Ru)≤Pθ(p^≤u)Pθ(p^(X)≤u)=u
Tenga en cuenta que la suposición en (2) no se cumple cuando un estadístico de prueba es discreto, incluso si la hipótesis nula es simple en lugar de compuesta. Tomemos por ejemploX∼Binom(10,θ) con y . Es decir, lanza una moneda diez veces y prueba si es justo o sesgado hacia las caras (codificado como un 1). La probabilidad de ver 10 caras en 10 lanzamientos de monedas justos es (1/2) ^ 10 = 1/1024. La probabilidad de ver 9 o 10 caras en 10 lanzamientos de monedas justos es 11/1024. Para cualquier estrictamente entre 1/1024 y 11/1024, rechazaría el valor nulo si , pero no tenemos ese para esos valores de cuandoH0:θ=.5H1:θ>0.5αX=10Pr(X∈Rα)=ααθ=0.5 . En cambio, para tal . Pr(X∈Rα)=1/1024α