2
Función de costo de entropía cruzada en red neuronal
Estoy viendo la función de costo de entropía cruzada que se encuentra en este tutorial : C=−1n∑x[ylna+(1−y)ln(1−a)]C=−1n∑x[ylna+(1−y)ln(1−a)]C = -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] ¿Qué estamos resumiendo exactamente? Por supuesto, está sobre xxx , pero yyy y aaa no cambian con xxx . Todas las xxx son entradas en el uno …