Perguntas com a marcação «machine-learning»

Os algoritmos de aprendizado de máquina constroem um modelo dos dados de treinamento. O termo "aprendizado de máquina" é vagamente definido; inclui o que também é chamado aprendizado estatístico, aprendizado reforçado, aprendizado não supervisionado etc. SEMPRE ADICIONE UM TAG MAIS ESPECÍFICO.


3
Como o gerador em um GAN é treinado?
O artigo sobre GANs diz que o discriminador usa o seguinte gradiente para treinar: ∇θd1m∑i = 1m[ logD ( x( I )) +log( 1 - D ( G ( z( I )) ) ) ]∇θd1m∑i=1m[log⁡D(x(i))+log⁡(1−D(G(z(i))))]\nabla _{\theta_d} \frac{1}{m}\sum^{m}_{i=1} [\log{D(x^{(i)})} + \log{(1-D(G(z^{(i)})))}] Os valores são amostrados, passados ​​através do gerador para gerar …

4
Coeficiente de correlação de Matthews com multi-classe
O coeficiente de correlação de Matthews ( ) é uma medida para medir a qualidade de uma classificação binária ([Wikipedia] [1]). formulação é fornecida para classificação binária utilizando valores de positivos verdadeiros ( ), falsos positivos ( ), falsos negativos ( ) e negativos verdadeiros ( ), conforme indicado abaixo:MCCMCC\textrm{MCC}MCCMCC\textrm{MCC} …

2
Fórmula AIC em Introdução à Aprendizagem Estatística
Estou um pouco intrigado com a fórmula apresentada na "Introdução ao aprendizado estatístico" de Hastie. No capítulo 6, página 212 (sexta impressão, disponível aqui ), afirma-se que: AIC=RSSnσ^2+2dnUMAEuC=RSSnσ^2+2dnAIC = \frac{RSS}{n\hat\sigma^2} + \frac{2d}{n} Para modelos lineares com ruído gaussiano, é o número de preditores e a estimativa da variação do erro. …


5
Por que (e quando) é preciso aprender a função de recompensa com amostras no aprendizado por reforço?
No aprendizado por reforço, temos uma função de recompensa que informa ao agente o desempenho de suas ações e estados atuais. Em algumas configurações gerais, a função de recompensa é uma função de três variáveis: Estado atualSSS Ação atual no estado atualπ(s)=aπ(s)=a\pi(s) = a Próximo estadoS′S′S' Portanto, parece algo como: …

2
Vetorização de perda de entropia cruzada
Estou lidando com um problema relacionado à localização do gradiente da função de perda de entropia cruzada no parâmetro que:θθ\theta CE(θ)=−∑iyi∗log(y^i)CE(θ)=−∑iyi∗log(y^i)CE(\theta) = -\sum\nolimits_{i}{y_i*log({\hat{y}_{i}})} Onde, e é uma entrada de vetor.y^i=softmax(θi)y^i=softmax(θi)\hat{y}_{i} = softmax(\theta_i)θiθi\theta_i Além disso, é um vetor quente da classe correta e é a previsão para cada classe usando a …



2
Como preparar interações de variáveis ​​categóricas no scikit-learn?
Qual é a melhor maneira de preparar interações de recursos categóricos antes de se adaptar ao scikit-learn? Com statsmodelseu poderia dizer convenientemente em estilo R smf.ols(formula = 'depvar ~ C(var1)*C(var2)', data=df).fit()(o mesmo em Stata com regress depvar i.var1##i.var2). Pode sklearn.preprocessing.PolynomialFeatures(na v0.15, atualmente dev) ser usado com variáveis ​​categóricas?

2
Divergência Contrastante Persistente para RBMs
Ao usar o algoritmo persistente de aprendizado de CD para Restricted Bolzmann Machines, iniciamos nossa cadeia de amostragem Gibbs na primeira iteração em um ponto de dados, mas, ao contrário do CD normal, nas iterações seguintes, não iniciamos novamente em nossa cadeia. Em vez disso, começamos onde a cadeia de …



1
Tentando entender o Processo Gaussiano
Estou lendo o livro GPML e, no capítulo 2 (página 15) , ele mostra como fazer a regressão usando o Gaussian Process (GP), mas estou tendo dificuldade para entender como funciona. Na inferência bayesiana para modelos paramétricos, primeiro escolhemos um prior nos parâmetros do modelo , ou seja, ; segundo, …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.