Perguntas com a marcação «gradient-descent»

A descida de gradiente é um algoritmo de otimização iterativa de primeira ordem. Para encontrar um mínimo local de uma função usando a descida do gradiente, é necessário executar etapas proporcionais ao negativo do gradiente (ou do gradiente aproximado) da função no ponto atual. Para descida de gradiente estocástico, há também a tag [sgd].


3
Descida em gradiente em lote versus descida em gradiente estocástico
Suponha que tenhamos algum conjunto de treinamento para . Suponha também que executemos algum tipo de algoritmo de aprendizado supervisionado no conjunto de treinamento. As hipóteses são representadas como . Precisamos encontrar os parâmetros que minimizem a "distância" entre e . Seja(x(i),y(i))(x(i),y(i))(x_{(i)}, y_{(i)})i=1,…,mi=1,…,mi = 1, \dots, mhθ(x(i))=θ0+θ1x(i)1+⋯+θnx(i)nhθ(x(i))=θ0+θ1x(i)1+⋯+θnx(i)nh_{\theta}(x_{(i)}) = \theta_0+\theta_{1}x_{(i)1} + …













2
Precisamos de descida gradiente para encontrar os coeficientes de um modelo de regressão linear?
Eu estava tentando aprender aprendizado de máquina usando o material Coursera . Nesta palestra, Andrew Ng usa o algoritmo de descida de gradiente para encontrar os coeficientes do modelo de regressão linear que minimizarão a função de erro (função de custo). Para regressão linear, precisamos de descida de gradiente? Parece …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.