Perguntas com a marcação «regression»

Técnicas para analisar o relacionamento entre uma (ou mais) variáveis ​​"dependentes" e variáveis ​​"independentes".

1
Regressão do laço de validação cruzada em R
A função R cv.glm (library: boot) calcula o erro de previsão de validação cruzada estimado em dobras K para modelos lineares generalizados e retorna delta. Faz sentido usar essa função para uma regressão do laço (library: glmnet) e, em caso afirmativo, como pode ser realizada? A biblioteca glmnet usa uma …

1
Como usar o anova para comparação de dois modelos?
Como devo entender o anovaresultado ao comparar dois modelos? Exemplo: Res.Df RSS Df Sum of Sq F Pr(>F) 1 9 54.032 2 7 4.632 2 49.4 37.329 0.0001844 *** A página de manual declara: "Computar tabelas de análise de variação (ou desvio) para um ou mais objetos de modelo ajustados". …
9 r  regression  anova 



3
R Séries temporais sazonais
Uso a decomposefunção Re crio os três componentes da minha série temporal mensal (tendência, sazonal e aleatória). Se plotar o gráfico ou olhar para a tabela, posso ver claramente que a série temporal é afetada pela sazonalidade. No entanto, quando regredo a série temporal para as 11 variáveis ​​fictícias sazonais, …




1
Derivação interessante de R ao quadrado
Anos atrás, eu encontrei essa identidade através da experimentação brincando com dados e transformações. Depois de explicar ao meu professor de estatística, ele entrou na aula seguinte com uma prova de uma página, usando notação de vetor e matriz. Infelizmente, perdi o papel que ele me deu. (Isso foi em …


2
Existe uma maneira elegante / perspicaz de entender essa identidade de regressão linear para múltiplos ?
Na regressão linear, encontrei um resultado agradável que, se encaixarmos no modelo E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, então, se padronizarmos e centralizarmos os dados , e ,X 1 X 2YYYX1X1X_1X2X2X_2 R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R^2 = \mathrm{Cor}(Y,X_1) \beta_1 + \mathrm{Cor}(Y, X_2) \beta_2. Isso me parece uma versão de 2 variáveis …

1
As estimativas de interceptação e inclinação em regressão linear simples são independentes?
Considere um modelo linear yEu= α + βxEu+ ϵEuyi=α+βxi+ϵiy_i= \alpha + \beta x_i + \epsilon_i e as estimativas para o declive e interceptar α e usando mínimos quadrados ordinários. Essa referência para uma estatística matemática faz a afirmação de que e são independentes (na prova de seu teorema).α^α^\hat{\alpha} ct pβ^β^\hat{\beta}α^α^\hat{\alpha}β^β^\hat{\beta} …




Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.