Existem duas razões pelas quais precisamos normalizar os recursos de entrada antes de alimentá-los na rede neural:
Razão 1 : Se um Feature
na Dataset
é grande em escala em comparação com outros, esse recurso em grande escala se torna dominante e, como resultado, as previsões da Rede Neural não serão precisas.
Exemplo : No caso de Dados do funcionário, se considerarmos Idade e salário, a idade será um número de dois dígitos, enquanto o salário poderá ser de 7 ou 8 dígitos (1 milhão, etc.). Nesse caso, o salário dominará a previsão da rede neural. Porém, se Normalizarmos esses Recursos, os valores de ambos os Recursos estarão no intervalo de (0 a 1).
Razão 2 : A propagação frontal de redes neurais envolve o produto pontual de pesos com recursos de entrada. Portanto, se os valores forem muito altos (para dados de imagem e não imagem), o cálculo da saída leva muito tempo de computação e também memória. Mesmo é o caso durante a propagação traseira. Conseqüentemente, o modelo converge lentamente, se as entradas não forem normalizadas.
Exemplo : Se executarmos a Classificação de imagem, o Tamanho da imagem será muito grande, pois o Valor de cada pixel varia de 0 a 255. Nesse caso, a normalização é muito importante.
A seguir mencionadas são as instâncias em que a Normalização é muito importante:
- K-Means
- K-vizinhos mais próximos
- Análise de Componentes Principais (PCA)
- Gradiente descendente