Perguntas com a marcação «convolution»

Convolução é uma operação com valor de função em duas funções f e g: f(τ)g(tτ)dτ. Freqüentemente usado para obter a densidade de uma soma de variáveis ​​aleatórias independentes. Esta tag também deve ser usada para a operação inversa de deconvolução. NÃO use esta tag para redes neurais convolucionais.


6
Importância da normalização da resposta local na CNN
Descobri que o Imagenet e outras CNNs grandes usam camadas de normalização de resposta local. No entanto, não consigo encontrar tanta informação sobre eles. Quão importantes são e quando devem ser usados? Em http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "A camada de normalização de resposta local executa um tipo de" inibição lateral "normalizando sobre …

4
O que é invariância da tradução na visão computacional e na rede neural convolucional?
Não tenho experiência em visão computacional, mas quando leio alguns artigos e artigos relacionados a processamento de imagens e redes neurais convolucionais, enfrento constantemente o termo translation invariance, ou translation invariant. Ou eu li muito que a operação de convolução fornece translation invariance? !! O que isto significa? Eu mesmo …



1
Os graus de liberdade podem ser um número não inteiro?
Quando uso o GAM, o DF residual é (última linha do código). O que isso significa? Indo além do exemplo do GAM, em geral, o número de graus de liberdade pode ser um número não inteiro?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"Estimativa da densidade do kernel" é uma convolução do quê?
Estou tentando entender melhor a estimativa da densidade do kernel. Usando a definição da Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^( x ) = 1n∑ni = 1Kh( x - xEu)= 1n h∑ni = 1K( x - xEuh)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Vamos considerar como uma função …

6
Camadas Convolucionais: Almofar ou não?
A arquitetura AlexNet usa zero paddings, como mostrado na figura: No entanto, não há explicação no artigo por que esse padding é introduzido. O curso Standford CS 231n ensina que usamos estofamento para preservar o tamanho espacial: Gostaria de saber se é a única razão pela qual precisamos de preenchimento? …

2
Uma visão de sistemas dinâmicos do Teorema do Limite Central?
(Originalmente publicado em MSE.) Já vi muitas discussões heurísticas do teorema clássico do limite central falar da distribuição normal (ou de qualquer das distribuições estáveis) como um "atrator" no espaço das densidades de probabilidade. Por exemplo, considere estas frases no topo do tratamento da Wikipedia : Em uso mais geral, …





4
A soma das variáveis ​​aleatórias lognormal independentes aparece lognormal?
Estou tentando entender por que a soma de duas (ou mais) variáveis ​​aleatórias lognormal se aproxima de uma distribuição lognormal à medida que você aumenta o número de observações. Procurei on-line e não encontrei nenhum resultado sobre isso. Claramente, se e são variáveis ​​lognormal independentes, então pelas propriedades dos expoentes …

2
Vários filtros em uma camada convolucional não aprenderiam o mesmo parâmetro durante o treinamento?
Com base no que aprendi, usamos vários filtros em uma camada Conv de uma CNN para aprender diferentes detectores de recursos. Mas como esses filtros são aplicados de maneira semelhante (ou seja, deslizados e multiplicados pelas regiões da entrada), eles não aprenderiam os mesmos parâmetros durante o treinamento? Portanto, o …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.