¿Qué es una "información previa de la unidad"?


11

He estado leyendo Wagenmakers (2007) Una solución práctica al problema generalizado de los valores de p . Me intriga la conversión de los valores BIC en factores y probabilidades de Bayes. Sin embargo, hasta ahora no tengo una buena idea de qué es exactamente una información de unidad anterior . Le agradecería una explicación con imágenes, o el código R para generar imágenes, de este particular antes.

Respuestas:


6

La información previa de la unidad es una información previa dependiente de los datos (normalmente Normal multivariante) con una media en el MLE y una precisión igual a la información proporcionada por una observación. Consulte, por ejemplo, este informe técnico o este documento para obtener todos los detalles. La idea de la UIP es dar un previo que "permita que los datos hablen por sí mismos"; en la mayoría de los casos, la adición de previo que le indica tanto como una observación centrada donde los otros datos están 'apuntando' tendrá poco impacto en el análisis posterior. Uno de sus principales usos es mostrar que el uso de BIC corresponde, en muestras grandes, al uso de factores de Bayes, con UIP en sus parámetros.

Probablemente también valga la pena señalar que muchos estadísticos (incluidos los bayesianos) se sienten incómodos con el uso de Factores Bayes y / o BIC, para muchos problemas aplicados.


2
BIC no es una herramienta bayesiana, ya que elimina el impacto de la anterior. Como bayesiano, me siento cómodo con los factores de Bayes, ¡pero no con AIC, BIC ni DIC!
Xi'an

¡Bueno, nunca dije que lo fuera! Como Bayesiano (que ha leído y que valora la Elección Bayesiana), estaría contento con cualquiera de esos métodos si tuvieran alguna justificación teórica de decisión, incluso aproximadamente, para una utilidad que reflejara lo que quería que lograra el análisis.
invitado

Gracias por las respuestas He hecho una pregunta de seguimiento aquí
Matt Albrecht

2

La información de la unidad anterior se basa en la siguiente interpretación de conjugación:

Preparar

  • Datos normales: con con unknown y conocidos. Los datos pueden resumirse suficientemente por la media muestral, que antes de que se vea cualquier dato se distribuye de acuerdo con .Xn=(X1,,Xn)XiN(μ,σ2)μσ2X¯N(μ,σ2n)
  • Normal anterior para :μ Con con la misma variación que en los datos.μN(a,σ2)
  • Normal posterior para :μ Con donde y .μN(M,v)v=σ2M=1n+1(a+nx¯)v=σ2n+1

Interpretación

Por lo tanto, después de observar los datos , tenemos un for posterior para que se concentra en una combinación convexa de la observación y lo que se postuló antes de que se observaran los datos, que es, . Además, la varianza posterior está dada por , por lo tanto, como si tuviéramos observaciones en lugar de μ ˉ x a σ 2X¯=x¯μx¯a n+1n ˉ x aσ2n+1n+1ncomparó la distribución muestral de la media muestral. Tenga en cuenta que una distribución de muestreo no es lo mismo que una distribución posterior. Sin embargo, el tipo posterior se parece, permitiendo que los datos hablen por sí mismos. Por lo tanto, con la información de la unidad anterior, uno obtiene un posterior que se concentra principalmente en los datos, , y se reduce a la información previa como una penalización única.x¯a

Kass y Wasserman, además, mostraron que la selección del modelo versus con lo anterior anteriormente puede aproximarse bien con el criterio de Schwartz (básicamente, BIC / 2) cuando es grande.M 1 : μ R nM0:μ=aM1:μRn

Algunas observaciones:

  • El hecho de que BIC se aproxime a un factor de Bayes basado en una información de unidad anterior, no implica que debamos usar una información de unidad antes de construir un factor de Bayes. La opción predeterminada de Jeffreys (1961) es usar un Cauchy antes del tamaño del efecto, ver también Ly et al. (en prensa) para una explicación sobre la elección de Jeffreys.
  • Kass y Wasserman mostraron que el BIC dividido por una constante (que relaciona el Cauchy con una distribución normal) todavía se puede usar como una aproximación del factor Bayes (esta vez basado en un Cauchy anterior en lugar de uno normal).

Referencias

  • Jeffreys, H. (1961). Teoría de la probabilidad . Oxford University Press, Oxford, Reino Unido, 3a edición.
  • Kass, RE y Wasserman, L. (1995). "Una prueba bayesiana de referencia para hipótesis anidadas y su relación con el criterio de Schwarz", Journal of the American Statistical Association , 90, 928-934
  • Ly, A., Verhagen, AJ y Wagenmakers, E.-J. (en prensa). Pruebas de hipótesis del factor Bayes predeterminadas de Harold Jeffreys: explicación, extensión y aplicación en psicología. Revista de Psicología Matemática.
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.