Sí, las GAN se pueden usar para texto. Sin embargo, existe un problema en la combinación de cómo funcionan las GAN y cómo las redes neuronales generan normalmente el texto:
- Las GAN funcionan mediante la propagación de gradientes a través de la composición de Generador y Discriminador.
- El texto normalmente se genera al tener una capa softmax final sobre el espacio del token, es decir, la salida de la red es normalmente la probabilidad de generar cada token (es decir, una unidad estocástica discreta).
Estas 2 cosas no funcionan bien juntas por sí mismas, porque no puede propagar gradientes a través de unidades estocásticas discretas. Hay dos enfoques principales para lidiar con esto: el algoritmo REINFORCE y la reparametrización Gumbel-Softmax (también conocida como la distribución de Concreto ). Tenga en cuenta que se sabe que REINFORCE tiene una gran varianza, por lo que necesita grandes cantidades de datos para obtener buenas estimaciones de gradiente.
Como ejemplo de REINFORCE para GAN textuales, puede consultar el artículo de SeqGAN . Un ejemplo de Gumbel-Softmax puede consultar este artículo .
Otra opción completamente diferente es no tener una unidad estocástica discreta como salida del generador (por ejemplo, generar tokens de forma determinista en el espacio incrustado), eliminando así el problema original de propagación hacia atrás a través de ellos.