En su libro "Todas las estadísticas", el profesor Larry Wasserman presenta el siguiente ejemplo (11.10, página 188). Supongamos que tenemos una densidad tal que f ( x ) = c , donde g es una funciónconocida(no negativa, integrable), y la constante de normalización c > 0 esdesconocida.
Estamos interesados en aquellos casos en los que no podemos calcular . Por ejemplo, puede darse el caso de que f sea un pdf sobre un espacio muestral de muy alta dimensión.
Es bien sabido que existen técnicas de simulación que nos permiten tomar muestras de , aunque c es desconocido. Por lo tanto, el enigma es: ¿cómo podríamos estimar c a partir de una muestra así?
El profesor Wasserman describe la siguiente solución bayesiana: que sea algo anterior para c . La probabilidad es L x ( c ) = n ∏ i = 1 f ( x i ) = n ∏ i = 1 ( c Por lo tanto, el π posterior ( c ∣ x ) ∝ c n π ( c ) no depende de los valores de la muestra x 1 , ... , x n . Por lo tanto, un Bayesiano no puede usar la información contenida en la muestra para hacer inferencias sobre c .
El profesor Wasserman señala que "los bayesianos son esclavos de la función de probabilidad. Cuando la probabilidad va mal, también lo hará la inferencia bayesiana".
Mi pregunta para mis compañeros apiladores es: con respecto a este ejemplo en particular, ¿qué salió mal (si acaso) con la metodología bayesiana?
PD: Como el profesor Wasserman explicó amablemente en su respuesta, el ejemplo se debe a Ed George.