Perguntas com a marcação «gradient-descent»

A descida de gradiente é um algoritmo de otimização iterativa de primeira ordem. Para encontrar um mínimo local de uma função usando a descida do gradiente, é necessário executar etapas proporcionais ao negativo do gradiente (ou do gradiente aproximado) da função no ponto atual. Para descida de gradiente estocástico, há também a tag [sgd].







Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.