Estoy viendo la función de costo de entropía cruzada que se encuentra en este tutorial :
¿Qué estamos resumiendo exactamente? Por supuesto, está sobre , pero y no cambian con . Todas las son entradas en el uno . incluso se define en el párrafo anterior a la ecuación en función de la suma de todas las 'sy ' s.
Además, se define como el número de entradas en esta neurona en particular, ¿correcto? Está redactado como "el número total de elementos de datos de entrenamiento" .
Editar:
¿Estoy en lo cierto al pensar que
sería la función de costo para toda la red, mientras que
¿Cuál sería el costo para la neurona individual? ¿No debería estar la suma sobre cada neurona de salida?