Recientemente me encontré con tf.nn.sparse_softmax_cross_entropy_with_logits y no puedo entender cuál es la diferencia en comparación con tf.nn.softmax_cross_entropy_with_logits .
¿Es la única diferencia que los vectores de entrenamiento y
tienen que codificarse en un solo uso cuando se usan sparse_softmax_cross_entropy_with_logits
?
Al leer la API, no pude encontrar ninguna otra diferencia en comparación con softmax_cross_entropy_with_logits
. Pero entonces, ¿por qué necesitamos la función adicional?
¿No debería softmax_cross_entropy_with_logits
producir los mismos resultados que sparse_softmax_cross_entropy_with_logits
si se suministra con datos / vectores de entrenamiento codificados en un solo uso?