2
¿Por qué la entropía cruzada se ha convertido en la función de pérdida estándar de clasificación y no en la divergencia de Kullbeck Leibler?
La entropía cruzada es idéntica a la divergencia KL más la entropía de la distribución objetivo. KL es igual a cero cuando las dos distribuciones son iguales, lo que me parece más intuitivo que la entropía de la distribución objetivo, que es lo que es la entropía cruzada en una …