Perguntas com a marcação «dimensionality-reduction»

Refere-se a técnicas para reduzir um grande número de variáveis ​​ou dimensões abrangidas pelos dados para um número menor de dimensões, preservando o máximo de informações possível sobre os dados. Métodos de destaque incluem PCA, MDS, Isomap, etc. As duas principais subclasses de técnicas: extração e seleção de recursos.



2
Por que o PCA maximiza a variação total da projeção?
Christopher Bishop escreve em seu livro Pattern Recognition and Machine Learning uma prova de que cada componente principal consecutivo maximiza a variação da projeção para uma dimensão, depois que os dados foram projetados no espaço ortogonal aos componentes selecionados anteriormente. Outros mostram provas semelhantes. No entanto, isso prova apenas que …

1
Variável categórica de regressão linear R valor "oculto"
Este é apenas um exemplo que encontrei várias vezes, portanto não tenho dados de amostra. Executando um modelo de regressão linear em R: a.lm = lm(Y ~ x1 + x2) x1é uma variável contínua. x2é categórico e possui três valores, por exemplo, "Baixo", "Médio" e "Alto". No entanto, a saída …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
Qual é a diferença entre aprendizado múltiplo e redução de dimensionalidade não linear?
Qual é a diferença entre aprendizado múltiplo e redução de dimensionalidade não linear ? Eu já vi esses dois termos sendo usados ​​de forma intercambiável. Por exemplo: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : O aprendizado múltiplo (também conhecido como redução de dimensionalidade não linear) busca o objetivo de incorporar dados que originalmente se encontram …


2
Redução de dimensão escalável
Considerando o número de recursos constante, o Barnes-Hut t-SNE possui uma complexidade de , projeções aleatórias e PCA têm uma complexidade de tornando-os "acessíveis" para conjuntos de dados muito grandes.O(nlogn)O(nlog⁡n)O(n\log n)O(n)O(n)O(n) Por outro lado, os métodos baseados no dimensionamento multidimensional têm uma complexidade .O(n2)O(n2)O(n^2) Existem outras técnicas de redução de …

1
Não é possível fazer com que esta rede de autoencoder funcione corretamente (com camadas convolutional e maxpool)
As redes de codificadores automáticos parecem ser muito mais complicadas do que as redes MLP classificadoras normais. Depois de várias tentativas usando Lasagne, tudo o que recebo na saída reconstruída é algo que se assemelha, na melhor das hipóteses, a uma média borrada de todas as imagens do banco de …



4
Técnica não ortogonal análoga à PCA
Suponha que eu tenha um conjunto de dados de ponto 2D e queira detectar as direções de todos os máximos locais de variação nos dados, por exemplo: O PCA não ajuda nessa situação, pois é uma decomposição ortogonal e, portanto, não pode detectar ambas as linhas que eu indiquei em …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.