El teorema de Bayes es:
PAGS( A | B ) =PAGS( B | A ) P( A )PAGS( B )
En el caso de que tenga algunos datos y un parámetro, es común usar para el parámetro (o vector de parámetros) para los datos.θX
Puede colocar un previo en , , y puede tener un modelo que proporciona la probabilidad de sus datos dado el modelo. Luego puede usar la regla / teorema de Bayes para "invertir" esto y obtener .θp ( θ )p ( x | θ )p ( θ | x )
Solo en un conjunto relativamente pequeño de ejemplos es posible obtener soluciones de forma cerrada para . Para casos arbitrarios, a menudo se aproxima la distribución posterior utilizando algunos métodos estándar en las estadísticas bayesianas; por ejemplo, los dos enfoques generales más comunes son la cadena de Markov, Monte Carlo o la Bayes variacional.p ( θ | x )
Suponga que está interesado en un caso simple donde existe una forma cerrada posterior. Un ejemplo de esto sería si es una normal estándar (gaussiana con varianza unitaria y media cero) y es una normal con un valor medio de y varianza unitaria.p ( θ )p ( x | θ )θ
Omitiré factores de normalización por conveniencia. También tenga en cuenta que el denominador en la regla de Bayes tiende a renormalizar simplemente las cosas:
Combinemos los exponentes y completemos el cuadrado
Recuerde que x está arreglado aquí porque se ha observado y queremos esperar que nuestra respuesta sea en términos de ello. Complete el cuadrado y vea que el exponente es con otros términos que dependen de x. Entonces:
p ( θ | x ) ∝mi- ( x - θ)2/ 2mi-θ2/ 2
- ( x - θ)2/ 2-θ2/ 2∝-(X2- 2 θ x +θ2) -θ2
∝−(θ−x/2)2p(θ|x)∝e−a(θ−x/2)2
donde 'a' es un factor que se puede obtener mediante la contabilidad. Observe que la posterior es una distribución normal con valor medio x / 2. Intenta calcular la varianza por ti mismo.
Tenga en cuenta que nuestra respuesta tiene sentido intuitivo ... el anterior dijo que es cero y observamos una muestra que tiene el valor esperado de . Dado que la varianza de la distribución anterior y son de igual magnitud, confiamos en ellas por igual. En consecuencia, nuestro posterior es una distribución con una media que es el promedio de 0 y que termina teniendo una varianza menor que la inicial o (no se muestra aquí). θxθp(x|θ)xp(x|θ)p(x)
Para la comparación del modelo, puede mirar una relación:
p(x|θ1)p(x|θ2)
Esto se llama la razón de probabilidad (ver wikipedia u otro lugar). Aquí no necesita la parte posterior, simplemente está viendo cómo (relativamente) probable que sus datos (u observaciones) se den como o como el parámetro del modelo que generó sus observaciones. θ1θ2
Espero que esto ayude.