Perguntas com a marcação «causality»

A relação entre causa e efeito.


1
Por que Anova () e drop1 () forneceram respostas diferentes para os GLMMs?
Eu tenho um GLMM do formulário: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Quando uso drop1(model, test="Chi"), obtenho resultados diferentes dos que utilizo Anova(model, type="III")na embalagem do carro ou summary(model). Estes dois últimos dão as mesmas respostas. Usando um monte de dados fabricados, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


1
Variável categórica de regressão linear R valor "oculto"
Este é apenas um exemplo que encontrei várias vezes, portanto não tenho dados de amostra. Executando um modelo de regressão linear em R: a.lm = lm(Y ~ x1 + x2) x1é uma variável contínua. x2é categórico e possui três valores, por exemplo, "Baixo", "Médio" e "Alto". No entanto, a saída …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


1
Intervalo de confiança para o efeito médio do tratamento a partir da ponderação do escore de propensão?
Estou tentando estimar o efeito médio do tratamento a partir de dados observacionais usando a ponderação do escore de propensão (especificamente IPTW). Acho que estou calculando o ATE corretamente, mas não sei como calcular o intervalo de confiança do ATE, considerando os pesos da pontuação de propensão inversa. Aqui está …


1
Da identificação à estimativa
Atualmente, estou lendo a peça de Pearl (Pearl, 2009, 2ª edição) sobre causalidade e luta para estabelecer o elo entre a identificação não paramétrica de um modelo e a estimativa real. Infelizmente, o próprio Pearl não fala nada sobre esse assunto. Para dar um exemplo, tenho um modelo simples em …

3
Tarefa aleatória: por que se preocupar?
A atribuição aleatória é valiosa porque garante a independência do tratamento dos possíveis resultados. É assim que leva a estimativas imparciais do efeito médio do tratamento. Mas outros esquemas de atribuição também podem garantir sistematicamente a independência do tratamento dos possíveis resultados. Então, por que precisamos de atribuição aleatória? Em …

4
Como se verifica a causa?
Depois de mostrarmos que duas quantidades estão correlacionadas, como inferimos que o relacionamento é causal? E, além disso, qual causa o quê? Agora, em teoria, pode-se usar uma "atribuição aleatória" (seja qual for a palavra certa), para quebrar qualquer vínculo de acidente que possa existir entre duas variáveis. Mas, em …


1
Na análise do escore de propensão, quais são as opções para lidar com propensões muito pequenas ou grandes?
\newcommand{\P}{\mathbb{P}} Estou preocupado com dados observacionais nos quais a atribuição do tratamento pode ser explicada extremamente bem. Por exemplo, uma regressão logística de P(A=1|X)=(1+exp(−(Xβ)))−1P(A=1|X)=(1+exp⁡(−(Xβ)))−1\P(A =1 |X) = (1+ \exp(-(X\beta)))^{-1} wehre AAA atribuição tratamento e XXX covariáveis tem ajuste muito bom com muito alto teste AUC>.80AUC>.80AUC >.80 ou mesmo >.90>.90>.90 . …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.