n = 37
Primero, en línea con lo que dijo @Glen_b, un bayesiano no está realmente interesado en si el dado es exactamente justo o no, no lo es. Lo que le importa es si está lo suficientemente cerca , sea lo que sea "suficiente" en el contexto, digamos, dentro del 5% de lo justo para cada lado.
pags1pags2pags3p = ( p1, p2, p3)pags1+ p2+ p3= 1α0 0= ( 1 , 1 , 1 )
X= ( X1, X2, X3)Xp = ( p1, p2, p3)α = ( x1+ 1 , x2+ 1 , x3+ 1 )
pags
De todos modos, así es como (con R):
Primero, obtenga algunos datos. Tiramos el dado 500 veces.
set.seed(1)
y <- rmultinom(1, size = 500, prob = c(1,1,1))
(Estamos comenzando con un dado justo; en la práctica, estos datos serían observados).
pags
library(MCMCpack)
A <- MCmultinomdirichlet(y, alpha0 = c(1,1,1), mc = 5000)
plot(A)
summary(A)
Finalmente, calculemos nuestra probabilidad posterior (después de observar los datos) de que el dado está dentro de 0.05 de justo en cada coordenada.
B <- as.matrix(A)
f <- function(x) all((x > 0.28)*(x < 0.38))
mean(apply(B, MARGIN = 1, FUN = f))
El resultado es aproximadamente 0.9486 en mi máquina. (Realmente no es una sorpresa. Después de todo, comenzamos con un dado justo).
Comentario rápido: probablemente no es razonable para nosotros haber usado un previo no informativo en este ejemplo. Dado que incluso hay una pregunta, presumiblemente, el dado parece aproximadamente equilibrado en primer lugar, por lo que puede ser mejor elegir un prior que se concentre más cerca de 1/3 en todas las coordenadas. Por encima de esto, simplemente habría aumentado aún más nuestra probabilidad posterior estimada de "casi justo".