Perguntas com a marcação «survey»

Refere-se a um instrumento usado para coletar uma amostra de uma população. A pesquisa geralmente se refere à amostragem de populações humanas e é realizada principalmente pela administração de questionários ou pela entrevista de indivíduos. A amostragem de indivíduos para pesquisas em populações estratificadas pode exigir amostragem mais complexa do que a simples aleatória para obter estimativas mais precisas dos parâmetros populacionais. O design da amostra e a análise dos dados da pesquisa se enquadram na 'Metodologia da Pesquisa'.

3
Um exemplo: regressão do LASSO usando glmnet para resultado binário
Estou começando a se envolver com o uso de glmnetcom LASSO Regressão onde meu desfecho de interesse é dicotômica. Criei um pequeno quadro de dados simulado abaixo: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

5
Como lidar com dados hierárquicos / aninhados no aprendizado de máquina
Vou explicar meu problema com um exemplo. Suponha que você queira prever a renda de um indivíduo, com alguns atributos: {Idade, Sexo, País, Região, Cidade}. Você tem um conjunto de dados de treinamento como esse train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Cálculo da repetibilidade dos efeitos de um modelo mais antigo
Acabei de me deparar com este artigo , que descreve como calcular a repetibilidade (também conhecida como confiabilidade, também conhecida como correlação intraclasse) de uma medição via modelagem de efeitos mistos. O código R seria: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

4
Como projetar um novo vetor no espaço PCA?
Depois de executar a análise de componentes principais (PCA), quero projetar um novo vetor no espaço do PCA (ou seja, encontrar suas coordenadas no sistema de coordenadas do PCA). Eu calculei o PCA na linguagem R usando prcomp. Agora eu devo poder multiplicar meu vetor pela matriz de rotação PCA. …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
uso de pesos em svyglm vs glm
Gostaria de saber como o tratamento de pesos difere entre svyglmeglm Estou usando o twangpacote em R para criar pontuações de propensão que são usadas como pesos, conforme a seguir (este código vem da twangdocumentação): library(twang) library(survey) set.seed(1) data(lalonde) ps.lalonde <- ps(treat ~ age + educ + black + hispan …
18 r  survey 

2
Como calcular o tempo médio de adesão ao vegetarianismo quando temos apenas dados de pesquisas sobre vegetarianos atuais?
Uma amostra populacional aleatória foi pesquisada. Eles foram perguntados se eles comem dieta vegetariana. Se eles responderam que sim, também foram solicitados a especificar por quanto tempo eles seguem a dieta vegetariana sem interrupção. Eu quero usar esses dados para calcular o tempo médio de adesão ao vegetarianismo. Em outras …

8
Como tratar respostas ilógicas a pesquisas
Enviei uma pesquisa para uma amostra de artistas. Uma das questões foi indicar o percentual de renda obtido por: atividade artística, apoio governamental, previdência privada, atividades não relacionadas às artes. Cerca de 65% dos indivíduos responderam de forma que a soma da porcentagem é 100. Os outros não: por exemplo, …
13 survey  bias 

8
Pesquisas: 25% de uma grande base de usuários é representativa?
Atualmente, meu empregador está realizando uma pesquisa ampla sobre as atitudes em relação ao escritório, ou seja, sentimentos. No passado, eles abriram a pesquisa para todas as áreas da empresa (vamos assumir 10 departamentos muito diferentes) e para todos os funcionários (assumir 1000 funcionários no total em toda a empresa) …


2
Identificação de perguntas inúteis de um questionário
Estou desenvolvendo um questionário. Para melhorar sua confiabilidade e validade, quero usar métodos estatísticos. Quero eliminar perguntas cujas respostas sejam sempre as mesmas. Isso significa que quase todos os participantes deram as mesmas respostas sobre essas perguntas. Agora minhas perguntas são: Qual é o termo técnico para essas perguntas inúteis …

3
Validando questionários
Estou elaborando um questionário para minha dissertação. Estou validando o questionário. Apliquei o teste alfa de Cronbach ao grupo inicial de amostras. As respostas ao questionário estão em uma escala Likert; alguém pode sugerir mais testes a serem aplicados para ajudar a testar sua validade. Como não sou especialista em …


2
Qual é a melhor maneira de visualizar os efeitos das categorias e sua prevalência na regressão logística?
Preciso apresentar informações sobre os principais preditores de votação de um candidato usando dados de uma pesquisa de opinião pública. Fiz uma regressão logística usando todas as variáveis ​​importantes, mas não consigo encontrar uma boa maneira de apresentar essas informações. Meu cliente não se importa apenas com o tamanho do …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.