Jeffreys antes de probabilidad binomial


10

Si uso un Jeffreys antes para un parámetro de probabilidad binomial entonces esto implica usar una distribución .theta ~ b e t un ( 1 / 2 , 1 / 2 )θθbeta(1/2,1/2)

Si me transformo en un nuevo marco de referencia entonces claramente tampoco se distribuye como una distribución . φ b e t un ( 1 / 2 , 1 / 2 )ϕ=θ2ϕbeta(1/2,1/2)

Mi pregunta es ¿en qué sentido Jeffreys es invariante antes de las reparametrizaciones? Creo que estoy entendiendo mal el tema para ser honesto ...

Mejor,

Ben


66
El previo de Jeffreys es invariable en el sentido de que comenzar con un previo de Jeffreys para una parametrización y ejecutar el cambio de variable apropiado es idéntico a derivar el previo de Jeffreys directamente para esta nueva parametrización. En realidad, equivalente sería un término más apropiado que invariante .
Xi'an

@ ben18785: eche un vistazo a stats.stackexchange.com/questions/38962/…
Zen

Vea también math.stackexchange.com/questions/210607/… (más o menos la misma pregunta, creo, pero en un sitio diferente).
Nathaniel

Respuestas:


16

Tengamos , donde es una función monótona de y dejemos que sea ​​el inverso de , de modo que . Podemos obtener la distribución previa de Jeffrey de dos maneras:ϕ=g(θ)gθhgθ=h(ϕ)pJ(ϕ)

  1. Comience con el modelo Binomial (1) vuelve a parametrizar el modelo con para obtener y obtenga la distribución previa de Jeffrey para este modelo.
    p(y|θ)=(ny)θy(1θ)ny
    ϕ=g(θ)
    p(y|ϕ)=(ny)h(ϕ)y(1h(ϕ))ny
    pJ(ϕ)
  2. Obtenga la distribución previa de Jeffrey del modelo Binomial original 1 y aplique la fórmula de cambio de variables para obtener la densidad previa inducida enpJ(θ)ϕ
    pJ(ϕ)=pJ(h(ϕ))|dhdϕ|.

Ser invariante para las reparametrizaciones significa que las densidades derivadas en ambos sentidos deben ser las mismas. El anterior de Jeffrey tiene esta característica [Referencia: Un primer curso en métodos estadísticos bayesianos por P. Hoff .]pJ(ϕ)

Para responder tu comentario. Para obtener la distribución previa de Jeffrey partir de la probabilidad del modelo binomial debemos calcular la información de Fisher tomando el logaritmo de probabilidad y calcular la segunda derivada de y la información de Fisher es pJ(θ)

p(y|θ)=(ny)θy(1θ)ny
ll
l:=log(p(y|θ))ylog(θ)+(ny)log(1θ)lθ=yθny1θ2lθ2=yθ2ny(1θ)2
I(θ)=E(2lθ2|θ)=nθθ2+nnθ(1θ)2=nθ(1θ)θ1(1θ)1.
El anterior de Jeffrey para este modelo es que es .
pJ(θ)=I(θ)θ1/2(1θ)1/2
beta(1/2,1/2)


1
Gracias por tu respuesta. Aunque me temo que estoy siendo un poco lento. ¿En qué sentido podemos obtener un prior a partir de una probabilidad? Son dos cosas separadas, y la última no implica la primera ...
ben18785

44
Respondí anteriormente obteniendo un anterior de Jeffrey de la probabilidad del modelo Binomial. pJ(θ)
Marko Lalović
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.