Perguntas com a marcação «truncated-normal»

2
Qual é o benefício da distribuição normal truncada na inicialização de pesos em uma rede neural?
Ao inicializar pesos de conexão em uma rede neural de feedforward, é importante inicializá-los aleatoriamente para evitar simetrias que o algoritmo de aprendizado não seria capaz de quebrar. A recomendação que vi em vários locais (por exemplo, no tutorial MNIST do TensorFlow ) é usar a distribuição normal truncada usando …


1
Cálculo do valor esperado de normal truncado
Usando o resultado da relação de usinas, deixe , em seguida,X∼N(μ,σ2)X∼N(μ,σ2)X \sim N(\mu, \sigma^2) E(X|X&lt;α)=μ−σϕ(a−μσ)Φ(a−μσ)E(X|X&lt;α)=μ−σϕ(a−μσ)Φ(a−μσ)E(X| X<\alpha) = \mu - \sigma\frac{\phi(\frac{a- \mu}{\sigma})}{\Phi(\frac{a-\mu}{\sigma})} No entanto, ao calcular em R., não obtenho os resultados corretos como &gt; mu &lt;- 1 &gt; sigma &lt;- 2 &gt; a &lt;- 3 &gt; x &lt;- rnorm(1000000, mu, …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.