Perguntas com a marcação «pca»

A análise de componentes principais (PCA) é uma técnica linear de redução de dimensionalidade. Reduz um conjunto de dados multivariado a um conjunto menor de variáveis ​​construídas, preservando o máximo de informações (a maior variação possível). Essas variáveis, chamadas componentes principais, são combinações lineares das variáveis ​​de entrada.










1
Confusos sobre a explicação visual dos vetores próprios: como os conjuntos de dados visualmente diferentes podem ter os mesmos vetores próprios?
Muitos livros didáticos de estatística fornecem uma ilustração intuitiva de quais são os vetores próprios de uma matriz de covariância: Os vetores u e z formam os vetores próprios (bem, eigenaxes). Isso faz sentido. Mas a única coisa que me confunde é que extraímos autovetores da matriz de correlação , …

2
Quais são as boas métricas para avaliar a qualidade de um ajuste de PCA, a fim de selecionar o número de componentes?
Qual é uma boa métrica para avaliar a qualidade da análise de componentes principais (PCA)? Eu executei esse algoritmo em um conjunto de dados. Meu objetivo era reduzir o número de recursos (a informação era muito redundante). Sei que a porcentagem de variação mantida é um bom indicador da quantidade …


1
Como interpretar esse biplot do PCA proveniente de uma pesquisa de quais áreas as pessoas estão interessadas?
Antecedentes: perguntei a centenas de participantes da minha pesquisa quanto eles estavam interessados ​​em áreas selecionadas (em escalas Likert de cinco pontos, sendo 1 indicando "não interessado" e 5 indicando "interessado"). Então eu tentei o PCA. A figura abaixo é uma projeção dos dois primeiros componentes principais. As cores são …

3
Escolha do número de componentes principais a serem retidos
Um método que me foi sugerido é examinar um gráfico de seixos e verificar "cotovelo" para determinar o número correto de PCs a serem usados. Mas se o gráfico não estiver claro, R tem um cálculo para determinar o número? fit <- princomp(mydata, cor=TRUE)
10 r  pca 

1
Por que Anova () e drop1 () forneceram respostas diferentes para os GLMMs?
Eu tenho um GLMM do formulário: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Quando uso drop1(model, test="Chi"), obtenho resultados diferentes dos que utilizo Anova(model, type="III")na embalagem do carro ou summary(model). Estes dois últimos dão as mesmas respostas. Usando um monte de dados fabricados, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.