La definición estándar de (digamos) un intervalo de confianza (IC) del 95% simplemente requiere que la probabilidad de que contenga el parámetro verdadero sea del 95%. Obviamente, esto no es único. El lenguaje que he visto sugiere que entre los muchos IC válidos, generalmente tiene sentido encontrar algo como el más corto, simétrico o conocido, incluso cuando algunos parámetros de distribución son desconocidos, etc. En otras palabras, parece que no hay jerarquía obvia de qué CI son "mejores" que otros.
Sin embargo, pensé que una definición equivalente de CI es que consiste en todos los valores de modo que la hipótesis nula de que el parámetro verdadero es igual a ese valor no sería rechazada al nivel de significancia apropiado después de ver la muestra realizada. Esto sugiere que mientras elijamos una prueba que nos guste, podemos construir automáticamente el CI. Y existe una preferencia estándar entre las pruebas basadas en el concepto de UMP (o UMP entre las pruebas no sesgadas).
¿Hay algún beneficio en definir CI como el que corresponde a la prueba UMP o algo así?