Respostas:
"Backprop" é o mesmo que "backpropagation": é apenas uma maneira mais curta de dizer isso. Às vezes, é abreviado como "BP".
'Backprop' é a abreviação de 'backpropagation of error' para evitar confusões ao usar o termo backpropagation .
Basicamente, a retropropagação refere-se ao método para calcular o gradiente da função de erro em maiúsculas e minúsculas com relação aos pesos para uma rede Werbos de feedforward . E backprop refere-se a um método de treinamento que usa backpropagation para calcular o gradiente.
Então, podemos dizer que uma rede backprop é uma rede feedforward treinada por backpropagation .
O termo 'backprop padrão' é um eufemismo para a regra delta generalizada, que é o método de treinamento supervisionado mais amplamente utilizado.
Fonte: O que é backprop? nas perguntas frequentes do grupo de notícias Usenet comp.ai.neural-nets
Referências:
Sim, como Franck colocou corretamente, "backprop" significa backpropogation, que é freqüentemente usado no domínio de redes neurais para otimização de erros.
Para uma explicação detalhada, eu indicaria este tutorial sobre o conceito de retropropagação de um livro muito bom de Michael Nielsen.
No aprendizado de máquina, a retropropagação (backprop, BP) é um algoritmo amplamente usado no treinamento de redes neurais feedforward para aprendizado supervisionado. Existem generalizações de retropropagação para outras redes neurais artificiais (RNAs) e para funções em geral - uma classe de algoritmos denominados genericamente como "retropropagação".
É um nome sofisticado para a regra da cadeia multivariável.