Sobreposição de rede neural


9

Aprendi que o ajuste excessivo pode ser detectado plotando o erro de treinamento e o erro de teste versus as épocas. Como em:

insira a descrição da imagem aqui

Eu estive lendo este post do blog onde eles dizem que a rede neural, net5 é excessiva e eles fornecem esta figura:

insira a descrição da imagem aqui

O que é estranho para mim, já que o erro de validação e treinamento do net5 continua caindo (mas lentamente).

Por que eles afirmam que é exagero? É porque o erro de validação está estagnado?

Respostas:


10

A super adaptação não ocorre apenas quando o erro de teste aumenta com as iterações. Dizemos que há excesso de ajuste quando o desempenho no conjunto de testes é muito menor do que o desempenho no conjunto de trens (porque o modelo se ajusta demais aos dados vistos e não generaliza bem).

Em seu segundo gráfico, podemos ver que os desempenhos nos conjuntos de teste são quase 10 vezes menores que os desempenhos nos conjuntos de trem, o que pode ser considerado como super ajuste.

É quase sempre o caso de um modelo ter um desempenho melhor no conjunto de treinamento do que no conjunto de teste, já que o modelo já viu os dados. No entanto, um bom modelo deve ser capaz de generalizar bem os dados não vistos e, em seguida, reduzir a diferença entre os desempenhos nos conjuntos de trens e testes.

Seu primeiro exemplo de sobreajuste pode ser resolvido com uma parada precoce, por exemplo. Seu segundo exemplo pode ser resolvido por regularização, corrompendo entradas etc.


Por que Overfitting é ruim nesse caso? Podemos ver que ele tem um desempenho melhor no conjunto de testes, para generalizar melhor, certo?
Fractale

1
@Fractale Existem muitos outros aspectos a serem considerados além da etapa de treinamento. Por exemplo, outro conjunto de hiperparâmetros pode resultar em melhor erro de teste e pior erro de treinamento (regularização mais forte). Portanto, essa configuração resultaria em menos sobreajuste. A adaptação "over" implica sempre uma comparação. Alterar algo que resulta em um erro de treinamento consideravelmente melhor, mas um erro de teste pior ou não significativamente melhor é o ajuste excessivo dos exemplos de treinamento, comparado à configuração original. A "mudança" pode ser qualquer coisa: o número de iterações de treinamento, hiperparâmetros etc.
isarandi
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.