La información de la unidad anterior se basa en la siguiente interpretación de conjugación:
Preparar
- Datos normales: con con unknown y conocidos. Los datos pueden resumirse suficientemente por la media muestral, que antes de que se vea cualquier dato se distribuye de acuerdo con .Xn=(X1,…,Xn)Xi∼N(μ,σ2)μσ2X¯∼N(μ,σ2n)
- Normal anterior para :μ Con con la misma variación que en los datos.μ∼N(a,σ2)
- Normal posterior para :μ Con donde y .μ∼N(M,v)v=σ2M=1n+1(a+nx¯)v=σ2n+1
Interpretación
Por lo tanto, después de observar los datos , tenemos un for posterior para que se concentra en una combinación convexa de la observación y lo que se postuló antes de que se observaran los datos, que es, . Además, la varianza posterior está dada por , por lo tanto, como si tuviéramos observaciones en lugar de μ ˉ x a σ 2X¯=x¯μx¯a n+1n ˉ x aσ2n+1n+1ncomparó la distribución muestral de la media muestral. Tenga en cuenta que una distribución de muestreo no es lo mismo que una distribución posterior. Sin embargo, el tipo posterior se parece, permitiendo que los datos hablen por sí mismos. Por lo tanto, con la información de la unidad anterior, uno obtiene un posterior que se concentra principalmente en los datos, , y se reduce a la información previa como una penalización única.x¯a
Kass y Wasserman, además, mostraron que la selección del modelo versus con lo anterior anteriormente puede aproximarse bien con el criterio de Schwartz (básicamente, BIC / 2) cuando es grande.M 1 : μ ∈ R nM0:μ=aM1:μ∈Rn
Algunas observaciones:
- El hecho de que BIC se aproxime a un factor de Bayes basado en una información de unidad anterior, no implica que debamos usar una información de unidad antes de construir un factor de Bayes. La opción predeterminada de Jeffreys (1961) es usar un Cauchy antes del tamaño del efecto, ver también Ly et al. (en prensa) para una explicación sobre la elección de Jeffreys.
- Kass y Wasserman mostraron que el BIC dividido por una constante (que relaciona el Cauchy con una distribución normal) todavía se puede usar como una aproximación del factor Bayes (esta vez basado en un Cauchy anterior en lugar de uno normal).
Referencias
- Jeffreys, H. (1961). Teoría de la probabilidad . Oxford University Press, Oxford, Reino Unido, 3a edición.
- Kass, RE y Wasserman, L. (1995). "Una prueba bayesiana de referencia para hipótesis anidadas y su relación con el criterio de Schwarz", Journal of the American Statistical Association , 90, 928-934
- Ly, A., Verhagen, AJ y Wagenmakers, E.-J. (en prensa). Pruebas de hipótesis del factor Bayes predeterminadas de Harold Jeffreys: explicación, extensión y aplicación en psicología. Revista de Psicología Matemática.