¿Por qué se utiliza el algoritmo de maximización de expectativas?


22

Por lo poco que sé, el algoritmo EM se puede usar para encontrar la probabilidad máxima cuando se establece en cero las derivadas parciales con respecto a los parámetros de la probabilidad, da un conjunto de ecuaciones que no se pueden resolver analíticamente. Pero, ¿es necesario el algoritmo EM en lugar de utilizar alguna técnica numérica para tratar de encontrar un máximo de probabilidad con respecto a la restricción del conjunto de ecuaciones mencionadas?

Respuestas:


20

La pregunta es legítima y tuve la misma confusión cuando aprendí el algoritmo EM.

En términos generales, el algoritmo EM define un proceso iterativo que permite maximizar la función de probabilidad de un modelo paramétrico en el caso de que algunas variables del modelo estén (o sean tratadas como) "latentes" o desconocidas.

En teoría, para el mismo propósito, puede usar un algoritmo de minimización para encontrar numéricamente el máximo de la función de probabilidad para todos los parámetros. Sin embargo, en una situación real, esta minimización sería:

  1. mucho más computacionalmente intensivo
  2. menos robusto

Una aplicación muy común del método EM es ajustar un modelo de mezcla. En este caso, considerando la variable que asigna cada muestra a uno de los componentes como variables "latentes", el problema se simplifica enormemente.

Veamos un ejemplo. Tenemos N muestras extraídas de una mezcla de 2 distribuciones normales. Para encontrar los parámetros sin EM debemos minimizar:s={syo}

-Iniciar sesiónL(X,θ)=-Iniciar sesión[una1exp((X-μ1)22σ12)+una2exp((X-μ2)22σ22)]

Por el contrario, usando el algoritmo EM, primero "asignamos" cada muestra a un componente ( paso E ) y luego ajustamos (o maximizamos la probabilidad de) cada componente por separado ( paso M ). En este ejemplo, el paso M es simplemente una media ponderada para encontrar y σ k . Iterar sobre estos dos pasos es una forma más simple y robusta de minimizar : log L ( x , θ ) .μkσk-Iniciar sesiónL(X,θ)


12

X=(X1,...,Xnorte)FXEl |Θ(XEl |θ)

l(θ;X)=losolFXEl |Θ(XEl |θ)
XYZX=(Y,Z)
losis(θ,Y)=losolFXEl |Θ(Y,zEl |θ)νz(rez)
losis(θ,Y)yo(yo+1)th
Q(θEl |θ(yo))=miθ(yo)[l(θ;XEl |Y]
θ(yo)ΘyothQ(θEl |θ(yo))θθ(yo+1)=metrounaXQ(θEl |θyo). Luego repita estos pasos hasta que el método converja en algún valor que será su estimación.

Si necesita más información sobre el método, sus propiedades, pruebas o aplicaciones, solo eche un vistazo al artículo Wiki correspondiente .


1
Sin embargo, +1 ... EM no es solo para el caso de valores faltantes.
Glen_b -Reinstale a Monica el

@Andy: Incluso considerando el caso de datos faltantes, todavía no entiendo por qué el uso de métodos numéricos genéricos para encontrar un punto donde las derivadas parciales son cero no funciona.
user782220

Gracias Glen, solo lo sabía en el contexto de valores perdidos / variables latentes. @ user782220: cuando no puede tener una solución de forma cerrada de la derivada de probabilidad de registro, establecer la derivada igual a cero no identificará su parámetro. Es por eso que utiliza métodos numéricos en este caso. Para una explicación y un ejemplo, vea la conferencia aquí: people.stat.sfu.ca/~raltman/stat402/402L5.pdf
Andy

1

EM se usa porque a menudo es inviable o imposible calcular directamente los parámetros de un modelo que maximiza la probabilidad de un conjunto de datos dado ese modelo.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.