Você mencionou regressão linear. Isso está relacionado à regressão logística , que possui um algoritmo de otimização rápida semelhante. Se você tiver limites nos valores de destino, como em um problema de classificação, poderá visualizar a regressão logística como uma generalização da regressão linear.
As redes neurais são estritamente mais gerais do que a regressão logística nas entradas originais, uma vez que corresponde a uma rede de camada ignorada (com conexões conectando diretamente as entradas às saídas) com nós ocultos.0
Quando você adiciona recursos como , isso é semelhante à escolha de pesos para alguns nós ocultos em uma única camada oculta. Não existe exatamente uma correspondência , pois modelar uma função como com sigmóides pode levar mais de um neurônio oculto. Quando você treina uma rede neural, permite que ela encontre seus próprios pesos escondidos de entrada para ocultos, com o potencial de ser melhor. Também pode levar mais tempo e pode ser inconsistente. Você pode começar com uma aproximação à regressão logística com recursos extras e treinar os pesos de entrada para ocultos lentamente, e isso deve fazer melhor do que a regressão logística com recursos extras eventualmente. Dependendo do problema, o tempo de treinamento pode ser insignificante ou proibitivo. 1 - 1 x 3x31−1x3
Uma estratégia intermediária é escolher um grande número de nós aleatórios, semelhante ao que acontece quando você inicializa uma rede neural, e corrigir os pesos de entrada para oculto. A otimização sobre os pesos * à saída permanece linear. Isso é chamado de máquina de aprendizado extremo . Funciona pelo menos tão bem quanto a regressão logística original.