Ayuda en Expectativa Maximización del papel: ¿cómo incluir la distribución previa?


9

La pregunta se basa en el artículo titulado: Reconstrucción de imágenes en tomografía óptica difusa utilizando el modelo acoplado de transporte radiativo-difusión

Enlace de descarga

Los autores aplican el algoritmo EM con regularización de dispersión de un vector desconocido para estimar los píxeles de una imagen. El modelo viene dado porl1μ

(1)y=Aμ+e
La estimación se da en la ecuación (8) como

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

En mi caso, he considerado que es un filtro de longitud y son vectores que representan los filtros. Entonces,μLμL×1

El modelo puede reescribirse como

(3)y(n)=μTa(n)+v(n)

Pregunta: Formulación del problema: (n por 1) es la entrada no observada y es la media cero con varianza desconocida ruido aditivo. La solución MLE se basará en la maximización de expectativas (EM).μ(n){e(n)}σe2

En el artículo, la ecuación (19) es la función : la probabilidad de registro completa, pero para mi caso no entiendo cómo puedo incluir la distribución de en la expresión de probabilidad de registro completa. AA,μ

¿Cuál será la probabilidad de registro completa usando EM de incluyendo la distribución previa?y


¿Realmente quieres el log-verosimilitud o en cambio quieres el log-posterior? Solo este último incluirá el prior laplaciano. El primero puede ser sólo obtiene tomando el logaritmo de la probabilidad, que parece que ya ha escrito a cabo

Hay dos expresiones que quiero: (1) Una que se usará para encontrar la Matriz de información de Fisher y la (2) otra será el pdf del conjunto de datos completo que incluye la variable oculta y las observancias que es la articulación densidad de probabilidad de los datos observados en función del parámetro . El pdf que he escrito es aplicable al modelo MA para la estimación ciega de . Pero, ¿cómo será diferente para la restricción de dispersión = Laplaciano anterior para que se pueda encontrar la matriz de información de Fisher de las derivadas parciales de la probabilidad logarítmica. θ θZθθ
SKM

@ Xi'an: No entiendo cómo enchufar los 3 pdf que incluyen lo anterior en la formulación del log-verosimilitud. Puedo calcular la maximización que consiste en tomar la derivada parcial y equipararla a cero. ¿Podría por favor poner una respuesta con la expresión de probabilidad explícitamente escrita? Esto realmente ayudará
SKM

Respuestas:


3

Si consideramos el objetivo como la representación en la base de EM es para un arbitrario , debido a la descomposición o que funciona para un valor arbitrario de (ya que no hay ninguno en lhs ) y, por lo tanto, también funciona para cualquier expectativa en :

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
para cualquier distribución condicional de dada , por ejemplo . Por lo tanto, si maximizamos en con la solución tenemos mientras mediante los argumentos estándar de EM. Por lo tanto, ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
y usando como un paso E el objetivo conduce a un aumento en la parte posterior en cada M paso, lo que significa que el algoritmo EM modificado converge a un MAP local.
E[logL(θ|x,Z)|x,θ]+logπ(θ)

Gracias por su respuesta. ¿ representa el pdf de ? ¿Podría por qué hay 2 expectativas con Restando en la ecuación mencionada en la segunda línea? q()ZE[logq(.)]
SKM

Agregué algunas explicaciones, pero debe verificar en un libro de texto la derivación del algoritmo EM ya que este es un material estándar.
Xi'an

1

No creo que mostrar un aumento logarítmico monotónico posterior (o probabilidad de logaritmo para MLE) sea suficiente para mostrar la convergencia al punto estacionario de la estimación MAP (o MLE). Por ejemplo, los incrementos pueden volverse arbitrariamente pequeños. En el famoso artículo de Wu 1983 , una condición suficiente para converger al punto estacionario de EM es la diferenciabilidad en ambos argumentos de la función de límite inferior.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.