¿Por qué la optimización de una mezcla de Gaussiana es computacionalmente difícil?


18

Considere la probabilidad logarítmica de una mezcla de gaussianos:

l(Snorte;θ)=t=1norteIniciar sesiónF(X(t)El |θ)=t=1norteIniciar sesión{yo=1kpagyoF(X(t)El |μ(yo),σyo2)}

Me preguntaba por qué era computacionalmente difícil maximizar esa ecuación directamente. Estaba buscando una intuición clara y sólida sobre por qué debería ser obvio que es difícil o tal vez una explicación más rigurosa de por qué es difícil. ¿Es este problema NP-completo o simplemente no sabemos cómo resolverlo todavía? ¿Es esta la razón por la que recurrimos al algoritmo EM ( maximización de expectativas )?


Notación:

Snorte = datos de entrenamiento.

x(t) = punto de datos.

θ = el conjunto de parámetros que especifican el gaussiano, sus medias, desviaciones estándar y la probabilidad de generar un punto a partir de cada grupo / clase / gaussiano.

pyo = la probabilidad de generar un punto a partir de clúster / clase / gaussiano i.

Respuestas:


14

Primero, GMM es un algoritmo particular para la agrupación, donde intenta encontrar el etiquetado óptimo de sus observaciones. Tener clases posibles, significa que hay posibles presentaciones de sus datos de entrenamiento. Esto ya se vuelve enorme para valores moderados de y n .k k n knkknkn

En segundo lugar, el funcional que intenta minimizar no es convexo y, junto con el tamaño de su problema, lo hace muy difícil. Solo sé que k-means (GMM puede verse como una versión suave de kmeans) es NP-hard. Pero no sé si también se ha probado para GMM.

Para ver que el problema no es convexo, considere el caso unidimensional: y compruebe que no puede garantizar que d 2 L

L=log(e(x/σ1)2+e(x/σ2)2)
para todas las x.d2Ldx2>0

Tener un problema no convexo significa que puede quedarse atascado en los mínimos locales. En general, no tiene las fuertes garantías que tiene en la optimización convexa, y la búsqueda de una solución también es mucho más difícil.


3
Con respecto al segundo punto: k-means se puede ver como un caso especial de GMM (más precisamente, un caso límite donde las variaciones se llevan a cero). Si podemos reducir k-means al ajuste de un GMM, este último también debe ser un problema NP-difícil.
Lucas

1
@Lucas: Aquí hay un enlace de validación cruzada a su comentario.
Xi'an

7

Además de los puntos de juampa, permítanme señalar esas dificultades:

  • La función es ilimitada, por lo que el verdadero máximo es de + y corresponde a μ ( i ) = x 1 (por ejemplo) y σ i = 0 . Por lo tanto, un verdadero maximizador debería terminar con esta solución, que no es útil para fines de estimación.l(θ|Sn)+μ^(i)=x1σ^i=0
  • knl(θ|Sn)θla imagen de abajo

tomado de mi libro .

Una observación adicional: sin llamar al algoritmo EM, uno puede usar un algoritmo de optimización estándar (como Newton-Raphson) un parámetro a la vez, es decir, iterar

  • θ1=argmaxθ1l(θ|Sn)
  • θ2=argmaxθ2l(θ1,θ-1El |Snorte)
  • ...
  • θv=argmaxθvl(θv,θv|Sn)

vl(θEl |Snorte)


OK, L no tiene límites si la varianza es 0. Pero si los excluimos de los posibles parámetros (por lo que suponemos que toda la varianza> 0), L no debería ser tan alta siempre que la varianza infinitesimal elegida (debido a otros puntos). Estoy en lo cierto? Entonces, para este posible conjunto de parámetros, L estaría acotado, y esto implicaría que el algoritmo EM converge (secuencia acotada creciente).
ahstat

@ahstat: asumir que las variaciones son estrictamente positivas no evita que EM converja a una solución degenerada si se inicia lo suficientemente cerca.
Xi'an
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.