Con anterior y probabilidad
mostrando éxitos en pruebas, la distribución posterior es
(Esto se ve fácilmente multiplicando los núcleos de lo anterior y la probabilidad de obtener el núcleo de lo posterior).Unif(0,1)≡Beta(α0=1,β0=1)Binom(n,θ)xnBeta(αn=1+x,βn=1+n−x).
Entonces la media posterior
es μn=αnαn+β=x+1n+2.
En un contexto bayesiano, solo usar la terminología media posterior puede ser lo mejor. (La mediana de la distribución posterior y el máximo de su PDF también se han utilizado para resumir la información posterior).
Notas: (1) Aquí está utilizando como una distribución previa no informativa. Sobre bases teóricas sólidas, algunos estadísticos bayesianos prefieren utilizar el anterior de Jeffrey como un previo no informativo. Entonces la media posterior esBeta(1,1)B e t a ( 1 Beta(12,12)μn=x+.5n+1.
(2) Al hacer intervalos de confianza frecuentes, Agresti y Coull han sugerido "agregar dos éxitos y dos fracasos" a la muestra para obtener un intervalo de confianza basado en el estimador que tiene probabilidades de cobertura más precisas (que el intervalo de Wald tradicional conDavid Moore lo ha calificado como un estimador de más cuatro en algunos de sus textos estadísticos elementales ampliamente utilizados, y la terminología ha sido utilizada por otros. No me sorprendería ver su estimador llamado 'más dos' y Jeffries 'llamado' más uno '.p^=x+2n+4, p =xp^=xn).
(3) Todos estos estimadores tienen el efecto de 'reducir el estimador hacia 1/2' y, por lo tanto, se les ha llamado 'estimadores de contracción' (un término que se usa mucho más ampliamente, particularmente en la inferencia de James-Stein). Ver respuesta (+1) de @Taylor.