En el caso específico, el espacio de parámetros es finito o infinitamente contable la pérdida posterior asociada con la pérdida del indicador es igual a la probabilidad de estar equivocado y se minimiza cuando la probabilidad posterior de ser correcta se maximiza. Esto significa que es el modo de la distribución posterior o el MAP.Θ
Θ={θ1,θ2,…}
P(θ^≠θ|x)P(θ^=θ|x)θ^
Sin embargo, esta asociación de MAP y pérdida es un "teorema popular" en el sentido de que es incorrecta en la mayoría de las configuraciones, es decir, no se cumple para espacios de parámetros continuos donde para todos los y entra en conflicto con los resultados de Druihlet y Marin (BA, 2007), quienes señalan que el MAP depende en última instancia de la elección de la medida dominante. (Aunque la medida de Lebesgue se elige implícitamente como predeterminada).0−1P(θ^=θ|x)=0θ^
Por ejemplo, Evans y Jang publicaron un artículo de arXiv en 2011 en el que discuten la conexión entre el MAP, los estimadores de relativa menor sorpresa (o máxima probabilidad de perfil) y las funciones de pérdida. El núcleo del asunto es que ni los estimadores MAP ni los MLE están realmente justificados por un enfoque teórico de decisión, al menos en un espacio de parámetros continuo. Y que la medida dominante [arbitrariamente] elegida en el espacio de parámetros impacta el valor del MAP, como lo demostraron Druihlet y Marin en 2007. Comienzan en el caso finito con la función de pérdida
L(θ,d)=I{Ψ(θ)≠d)/πΨ(Ψ(θ))
donde consideran la estimación de la transformación Ψ (θ) por d, inversamente ponderada por el marginal anterior en esta transformación. En el caso especial de la transformación de identidad, esta función de pérdida conduce al MLE como estimador de Bayes. En el caso general, el estimador de Bayes es el estimador de máxima probabilidad de perfil (LRSE). Sin embargo, esta función de pérdida no se generaliza a espacios de parámetros infinitamente contables (y obviamente continuos) y en tales entornos los autores solo pueden proporcionar LRSEs como límites de los procedimientos de Bayes. La función de pérdida adoptada en el caso contable es, por ejemplo,
L(θ,d)=I{Ψ(θ)≠d}/max{η,πΨ(Ψ(θ))}
con el límite disminuyendo a cero. En el caso continuo, el indicador ya no funciona, por lo tanto, la elección realizada por los autores es discretizar el espacio Ψ (Θ) mediante una elección específica de una partición de bolas cuyos diámetros λ van a cero. En el espíritu de Druihlet y Marin, esta elección depende de una métrica (y otras condiciones de regularidad). Además, el LRSE en sí
depende de la versión elegida para las densidades (si no es la medida dominante), a menos que uno impone en todas partes la igualdad de Bayes
todas partes, cuando
y
maxψπψ(ψ|x)/πψ(θ)
πψ(ψ|x)/πψ(θ)=f(x|ψ)/m(x)
f(x|ψ)=∫{θ;Ψ(θ)=ψ}f(x|θ)π(θ)dθ
m(x)=∫f(x|θ)π(θ)dθ
en el espíritu de
nuestro papel de paradoja Savage-Dickey .
Robert Bassett y Julio Deride presentaron un artículo en 2016 sobre la posición de los MAP dentro de la teoría de la decisión bayesiana.
"... proporcionamos un contraejemplo a la noción comúnmente aceptada de estimadores MAP como límite de estimadores Bayes que tienen una pérdida de 0-1".
¡Los autores mencionan mi libro The Bayesian Choice que declara esta propiedad sin más precauciones y estoy completamente de acuerdo en ser descuidado a este respecto! La dificultad radica en que el límite de los maximizadores no es necesariamente el maximizador del límite. El artículo incluye un ejemplo a este efecto, con un previo como el anterior, asociado con una distribución de muestreo que no depende del parámetro. Las condiciones suficientes propuestas allí son que la densidad posterior es casi seguramente apropiada o cuasicóncava.
Vea también una caracterización alternativa de los estimadores MAP por Burger y Lucka como estimadores Bayes adecuados bajo otro tipo de función de pérdida , aunque sea bastante artificial. Los autores de este artículo presentado comienzan con una distancia basada en lo anterior; llamada la distancia de Bregman, que puede ser la distancia cuadrática o la entropía dependiendo de la anterior. Definir una función de pérdida que es una mezcla de esta distancia de Bregman y de la distancia cuadrática
||K(u^−u)||2+2Dπ(u^,u)
produce el MAP como el estimador de Bayes. Todavía podría preguntarse acerca de la medida dominante, pero tanto la función de pérdida como el estimador resultante dependen claramente de la elección de la medida dominante ... (La pérdida depende de lo anterior, pero esto no es un inconveniente per se).