Distribución beta al lanzar una moneda


12

El libro bayesiano de Kruschke dice, con respecto al uso de una distribución beta para lanzar una moneda,

Por ejemplo, si no tenemos ningún conocimiento previo que no sea el conocimiento de que la moneda tiene un lado de la cara y un lado de la cola, eso equivale a haber observado previamente una cabeza y una cola, que corresponde a a = 1 y b = 1.

¿Por qué ninguna información equivaldría a haber visto una cabeza y una cola? 0 cabezas y 0 colas me parecen más naturales.


99
(+1) La cita es engañosa porque invita al lector a equiparar dos sentidos muy diferentes de "observar". El sentido utilizado aquí es el de haber inspeccionado la moneda en sí misma; en efecto, significa que comprende la configuración experimental. Pero la conclusión de que esto implica depende de la reinterpretación de "observar" en el sentido diferente de haber realizado el experimento dos veces durante el cual un resultado fue cara y otra cola. Este tipo de juego de manos lógico es una evasión intelectual; solo hace que los métodos bayesianos parezcan arbitrarios y lógicamente resbaladizos, lo cual es una pena. a=b=1
whuber

La cita es incorrecta: no hay justificación para un previo de Beta (1, 1).
Neil G

Uno podría fácilmente argumentar que es el valor de una sola observación: media cabeza / media cola.
Glen_b -Reinstalar Monica

44
Tenga en cuenta el propósito previsto de ese pasaje en el libro. Se supone que es una simple justificación intuitiva para los usuarios principiantes , obviamente no es un argumento matemático y definitivamente no es una afirmación de que beta (1,1) es el mejor o el único vago previo. En otra parte del libro, me esfuerzo por mostrar que las variaciones modestas en los vagos anteriores no hacen una diferencia sustancial en el posterior cuando hay una cantidad moderadamente grande de datos. (¡Excepto por los factores de Bayes, por supuesto, que son muy sensibles al anterior!) En otros escritos he discutido el Haldane anterior.
John K. Kruschke

Respuestas:


17

θnθp(θ|x)xn

p(θ|x)=Beta(x+α,nx+β)

αβα+βαα+βxn

p(θ|x)

  1. θα+βαβxnxx+αxnx+βnx. Es de esperar que un prior que no incorpore mucho conocimiento se vuelva rápidamente irrelevante a la luz de algunos datos.
  2. μprior=αα+βθμprior=0.5

    f(θ|α,β)=Γ(α+β)Γ(α)+Γ(β)θα1(1θ)β1

    θ=0.5α=β

α=β=cc

  1. θα=β=1

    f(θ|1,1)=Γ(2)2Γ(1)θ0(1θ)0=1

    θ[0,1]α=β=1

  2. Podría elegir otro punto de vista, el utilizado por el OP, y decir que ninguna información corresponde a no haber visto cabezas ni cola, es decir,

    α=β=0π(θ)θ1(1θ)1

    θ1(1θ)1I=[0,1]θ=0θ=1θθ

    α+xα+β+n=xnθθ

  3. Finalmente, podría usar un previo que no dependa de la parametrización del problema, es decir, el previo de Jeffreys, que para el modelo Beta-Binomial corresponde a

    α=β=12π(θ)θ12(1θ)12

    θλ=log(θ1θ)θ

Para resumir, no hay una sola opción inequívoca para un previo no informativo en el modelo Beta-Binomial. Lo que elija depende de lo que quiere decir como conocimiento previo cero y de los objetivos de su análisis.


0

p(θ=0)=0p(θ=1)=0θp(θ)=Beta(h+1,(Nh)+1)


Me cuesta entender tu respuesta.
Michael R. Chernick

pθ=0θ=1
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.