Un autoencoder variacional (VAE) proporciona una forma de aprender la distribución de probabilidad relaciona una entrada con su representación latente . En particular, el codificador asigna una entrada a una distribución en . Un codificador típico generará parámetros , que representa la distribución gaussiana ; Esta distribución se utiliza como nuestra aproximación para .
¿Alguien ha considerado un VAE donde la salida es un modelo de mezcla gaussiana, en lugar de un gaussiano? ¿Esto es útil? ¿Hay tareas en las que esto sea significativamente más efectivo que una simple distribución gaussiana? ¿O proporciona poco beneficio?