A função de custo da rede neural é e é reivindicada como não convexa . Não entendo muito bem por que é assim, pois, como vejo, é bastante semelhante à função de custo da regressão logística, certo?
Se não for convexa, a derivada de 2ª ordem , certo?
ATUALIZAR
Graças às respostas abaixo, bem como ao comentário de @ gung, entendi que, se não houver camadas ocultas, é convexa, assim como a regressão logística. Mas se houver camadas ocultas, permutando os nós nas camadas ocultas, bem como os pesos nas conexões subseqüentes, poderíamos ter várias soluções dos pesos, resultando na mesma perda.
Agora mais perguntas,
1) Existem vários mínimos locais, e alguns deles devem ter o mesmo valor, pois correspondem a algumas permutações de nós e pesos, certo?
2) Se os nós e pesos não serão permutados, então é convexo, certo? E os mínimos serão os mínimos globais. Nesse caso, a resposta para 1) é que todos os mínimos locais terão o mesmo valor, correto?