Tengamos , donde es una función monótona de y dejemos que sea el inverso de , de modo que . Podemos obtener la distribución previa de Jeffrey de dos maneras:ϕ=g(θ)gθhgθ=h(ϕ)pJ(ϕ)
- Comience con el modelo Binomial (1)
vuelve a parametrizar el modelo con para obtener
y obtenga la distribución previa de Jeffrey para este modelo.
p(y|θ)=(ny)θy(1−θ)n−y
ϕ=g(θ)p(y|ϕ)=(ny)h(ϕ)y(1−h(ϕ))n−y
pJ(ϕ)
- Obtenga la distribución previa de Jeffrey del modelo Binomial original 1 y aplique la fórmula de cambio de variables para obtener la densidad previa inducida enpJ(θ)ϕ
pJ(ϕ)=pJ(h(ϕ))|dhdϕ|.
Ser invariante para las reparametrizaciones significa que las densidades derivadas en ambos sentidos deben ser las mismas. El anterior de Jeffrey tiene esta característica [Referencia: Un primer curso en métodos estadísticos bayesianos por P. Hoff .]pJ(ϕ)
Para responder tu comentario. Para obtener la distribución previa de Jeffrey partir de la probabilidad del modelo binomial
debemos calcular la información de Fisher tomando el logaritmo de probabilidad y calcular la segunda derivada de
y la información de Fisher es
pJ(θ)
p(y|θ)=(ny)θy(1−θ)n−y
ll
l:=log(p(y|θ))∂l∂θ∂2l∂θ2∝ylog(θ)+(n−y)log(1−θ)=yθ−n−y1−θ=−yθ2−n−y(1−θ)2
I(θ)=−E(∂2l∂θ2|θ)=nθθ2+n−nθ(1−θ)2=nθ(1−θ)∝θ−1(1−θ)−1.
El anterior de Jeffrey para este modelo es
que es .
pJ(θ)=I(θ)−−−−√∝θ−1/2(1−θ)−1/2
beta(1/2,1/2)