La función de costo de la red neuronal es , y se afirma que no es convexa . No entiendo por qué es así, ya que, como veo, es bastante similar a la función de costo de la regresión logística, ¿verdad?
Si no es convexo, entonces la derivada de segundo orden , ¿verdad?
ACTUALIZAR
Gracias a las respuestas a continuación, así como al comentario de @gung, entendí su punto, si no hay capas ocultas, es convexo, al igual que la regresión logística. Pero si hay capas ocultas, al permutar los nodos en las capas ocultas, así como los pesos en las conexiones posteriores, podríamos tener múltiples soluciones de los pesos que resultan en la misma pérdida.
Ahora más preguntas,
1) Hay múltiples mínimos locales, y algunos de ellos deberían tener el mismo valor, ya que corresponden a algunas permutaciones de nodos y pesos, ¿verdad?
2) Si los nodos y los pesos no se permutarán en absoluto, entonces es convexo, ¿verdad? Y los mínimos serán los mínimos mundiales. Si es así, la respuesta a 1) es, todos esos mínimos locales serán del mismo valor, ¿correcto?