Se eu entendo a definição de precisão corretamente, a precisão (% dos pontos de dados classificados corretamente) é menos cumulativa do que digamos MSE (erro médio quadrático). É por isso que você vê que loss
está aumentando rapidamente, enquanto a precisão está flutuando.
Intuitivamente, isso basicamente significa que uma parte dos exemplos é classificada aleatoriamente , o que produz flutuações, pois o número de suposições aleatórias corretas sempre flutua (imagine precisão quando a moeda sempre deve retornar "cabeças"). Basicamente, a sensibilidade ao ruído (quando a classificação produz resultados aleatórios) é uma definição comum de sobreajuste (consulte a Wikipedia):
Em estatística e aprendizado de máquina, uma das tarefas mais comuns é ajustar um "modelo" a um conjunto de dados de treinamento, para poder fazer previsões confiáveis sobre dados gerais não treinados. Na super adaptação, um modelo estatístico descreve erro ou ruído aleatório, em vez da relação subjacente
Outra evidência de sobreajuste é que sua perda está aumentando, a perda é medida com mais precisão, é mais sensível à previsão barulhenta se não for esmagada por sigmóides / limiares (que parece ser o seu caso para a própria perda). Intuitivamente, você pode imaginar uma situação em que a rede tem muita certeza sobre a saída (quando está errada), portanto, fornece um valor distante do limite em caso de classificação aleatória incorreta.
Em relação ao seu caso, seu modelo não está devidamente regularizado, possíveis motivos:
- pontos de dados insuficientes, muita capacidade
- encomenda
- dimensionamento / normalização de recurso não / errado
- ααα
Soluções possíveis:
- obter mais pontos de dados (ou expandir artificialmente o conjunto de pontos existentes)
- brincar com hiperparâmetros (aumentar / diminuir capacidade ou termo de regularização, por exemplo)
- regularização : tente desistência, parada antecipada, etc.