Las interpretaciones bayesianas existen solo dentro del marco del análisis bayesiano, para estimadores que se relacionan con una distribución posterior. Por lo tanto, la única forma en que el estimador REML podría recibir una interpretación bayesiana (es decir, una interpretación como un estimador tomado de la parte posterior) es si consideramos que la probabilidad de registro restringida en el análisis REML es el log-posterior en un correspondiente Análisis de Bayes; en este caso, el estimador REML sería un estimador MAP de la teoría bayesiana, con su correspondiente interpretación bayesiana.
ℓx(θ,ν)=ℓ∗(θ,ν)+ℓRE(θ)ℓRE(θ)θνπ(θ,ν)∝exp(−ℓ∗(θ,ν))
π(θ|x)∝∫Lx(θ,ν)π(θ,ν)dν∝∫exp(ℓx(θ,ν))exp(−ℓ∗(θ,ν))dν=∫exp(ℓx(θ,ν)−ℓ∗(θ,ν))dν=∫exp(ℓ∗(θ,ν)+ℓRE(θ)−ℓ∗(θ,ν))dν=∫exp(ℓRE(θ))dν=∫LRE(θ)dν∝LRE(θ).
Esto nos da:
θ^MAP=argmaxθπ(θ|x)=argmaxθLRE(θ)=θ^REML.
Este resultado nos permite interpretar el estimador REML como un estimador MAP, por lo que la interpretación bayesiana adecuada del estimador REML es que es el estimador el que maximiza la densidad posterior bajo el anterior anterior .
Después de ilustrar el método para dar una interpretación bayesiana al estimador REML, ahora observamos que hay algunos grandes problemas con este enfoque. Un problema es que lo anterior se forma utilizando el componente de probabilidad de registro , que depende de los datos. Por lo tanto, el "previo" necesario para obtener esta interpretación no es un previo real, en el sentido de ser una función que se puede formar antes de ver los datos. Otro problema es que lo anterior a menudo será incorrecto (es decir, no se integra a uno) y en realidad puede aumentar de peso a medida que los valores de los parámetros se vuelven extremos. (Mostraremos un ejemplo de esto a continuación).ℓ∗(θ,ν)
Con base en estos problemas, se podría argumentar que no existe una interpretación bayesiana razonable para el estimador REML. Alternativamente, se podría argumentar que el estimador REML aún mantiene la interpretación bayesiana anterior, siendo un estimador a posteriori máximo bajo un "previo" que debe coincidir casualmente con los datos observados en la forma especificada, y puede ser extremadamente incorrecto.
Ilustración con datos normales: El ejemplo clásico de estimación REML es para el caso de datos normales donde le interesa la precisión y la media es un parámetro molesto. En este caso tiene la función log-verosimilitud:θ νx1,...,xn∼N(ν,1/θ)θν
ℓx(ν,θ)=−n2lnθ−θ2∑i=1n(xi−ν)2.
En REML dividimos este log-verosimilitud en los dos componentes:
ℓ∗(ν,θ)ℓRE(θ)=−n2lnθ−θ2∑i=1n(xi−ν)2=−n−12lnθ−θ2∑i=1n(xi−x¯)2.
Obtenemos el estimador REML para el parámetro de precisión maximizando la probabilidad residual, lo que da un estimador imparcial para la varianza:
1θ^REML=1n−1∑i=1n(xi−x¯)2.
En este caso, el estimador REML corresponderá a un estimador MAP para la densidad "anterior":
π(θ)∝θn/2exp(θ2∑i=1n(xi−ν)2).
Como puede ver, este "previo" en realidad depende de los valores de datos observados, por lo que no puede formarse antes de ver los datos. Además, podemos ver que es claramente un "impropio" anterior que pone cada vez más peso en los valores extremos de y . (En realidad, este prior es bastante loco.) Si por "coincidencia" formaras un prior que correspondiera a este resultado, entonces el estimador REML sería un estimador MAP bajo ese prior, y por lo tanto tendría una interpretación bayesiana como el estimador que maximiza la parte posterior debajo de la anterior.νθν