Perguntas com a marcação «linear-model»

Refere-se a qualquer modelo em que uma variável aleatória esteja relacionada a uma ou mais variáveis ​​aleatórias por uma função que seja linear em um número finito de parâmetros.

3
A suposição de linearidade na regressão linear é apenas uma definição de
Estou revisando a regressão linear. O livro de Greene declara: Agora, é claro que haverá outras suposições no modelo de regressão linear, como E(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0 . Essa suposição combinada com a suposição de linearidade (que na verdade define ϵϵ\epsilon ) coloca a estrutura no modelo. No entanto, a suposição de linearidade …


2
Regressão com variável independente inversa
Vamos supor que eu tenha um vetor - de variáveis ​​dependentes e um vetor - de variável independente. Quando é plotado contra , vejo que há uma relação linear (tendência ascendente) entre os dois. Agora, isso também significa que há uma tendência de queda linear entre e .NNNYYYNNNXXXYYY1X1X\frac{1}{X}YYYXXX Agora, se …


1
Por que Anova () e drop1 () forneceram respostas diferentes para os GLMMs?
Eu tenho um GLMM do formulário: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Quando uso drop1(model, test="Chi"), obtenho resultados diferentes dos que utilizo Anova(model, type="III")na embalagem do carro ou summary(model). Estes dois últimos dão as mesmas respostas. Usando um monte de dados fabricados, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


2
Na regressão linear, por que devemos incluir termos quadráticos quando estamos interessados ​​apenas em termos de interação?
Suponha que eu esteja interessado em um modelo de regressão linear, para , porque gostaria de ver se uma interação entre as duas covariáveis ​​afeta Y.Yi=β0+β1x1+β2x2+β3x1x2Yi=β0+β1x1+β2x2+β3x1x2Y_i = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 Nas anotações do curso de um professor (com quem não tenho contato), ele declara: Ao incluir …


1
Variável categórica de regressão linear R valor "oculto"
Este é apenas um exemplo que encontrei várias vezes, portanto não tenho dados de amostra. Executando um modelo de regressão linear em R: a.lm = lm(Y ~ x1 + x2) x1é uma variável contínua. x2é categórico e possui três valores, por exemplo, "Baixo", "Médio" e "Alto". No entanto, a saída …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
Termo de variância na decomposição de regressão linear por viés e variância
Em 'The Elements of Statistical aprendizagem', a expressão para a decomposição de polarização-variância de-modelo linear é dada como Er r ( x0 0) = σ2ϵ+ E[ f( x0 0) - Ef^( x0 0) ]2+ | | h ( x0 0) | |2σ2ϵ,Err(x0 0)=σϵ2+E[f(x0 0)-Ef^(x0 0)]2+||h(x0 0)||2σϵ2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2, onde é a …

1
Erros normalmente distribuídos e o teorema do limite central
Na Econometria Introdutória de Wooldridge, há uma citação: O argumento que justifica a distribuição normal dos erros geralmente é algo como isto: como é a soma de muitos fatores não observados que afetam , podemos invocar o teorema do limite central para concluir que tem uma distribuição normal aproximada.e vcvocêuuyyyvocêuu …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.