Perdón por no estar claro en mi blog !
Nota: proporcioné algunos antecedentes sobre la elección del modelo bayesiano y la paradoja de Jeffreys-Lindley en esta otra respuesta en Cross validada.
La paradoja de Jeffreys-Lindley está relacionada con la elección del modelo bayesiano en que la probabilidad marginal
deja de tener sentido cuando es una medida -finita (es decir, una medida con masa infinita) en lugar de una medida de probabilidad. La razón de esta dificultad es que la masa infinita hace que y indistinguibles para cualquier constante positiva . En particular, el factor Bayes no puede usarse y no debe usarse cuando un modelo está dotado de un "plano" anterior.π σ π c π
m(x)=∫π(θ)f(x|θ)dθ
πσπcπc
La paradoja original de Jeffreys-Lindley utiliza la distribución normal como ejemplo. Al comparar los modelos y el factor Bayes es
Está bien definido cuando es un prior apropiado pero si toma un previo normal en y deje que vaya al infinito, el denominador va a cero para cualquier valor de diferente de cero y cualquier valor de . (A menos que yx ~ N ( θ , 1 ) B 12 = exp { - n ( ˉ x n ) 2 / 2 }
x∼N(0,1)
x∼N(θ,1)
B12=exp{−n(x¯n)2/2}∫+∞−∞exp{−n(x¯n−θ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnestán relacionados, ¡pero esto se vuelve más complicado!) Si en su lugar usa directamente donde es una constante necesariamente arbitraria, el factor de Bayes será
tanto, depende directamente de .
π(θ)=c
cB12 cB12=exp{−n(x¯n)2/2}c∫+∞−∞exp{−n(x¯n−θ)2/2}dθ=exp{−n(x¯n)2/2}c2π/n−−−−√
c
Ahora, si sus antecedentes son informativos (y por lo tanto correctos), no hay razón para que ocurra la paradoja de Jeffreys-Lindley. Con un número suficiente de observaciones, el factor Bayes seleccionará de manera consistente el modelo que generó los datos. (O, más precisamente, el modelo dentro de la colección de modelos considerados para la elección del modelo más cercano al modelo "verdadero" que generó los datos).