Perguntas com a marcação «regression»

Técnicas para analisar o relacionamento entre uma (ou mais) variáveis ​​"dependentes" e variáveis ​​"independentes".



2
Estatística PRESS para regressão de crista
Nos mínimos quadrados comuns, regredindo um vetor alvo contra um conjunto de preditores , a matriz de chapéu é calculada comoyyyXXX H=X(XtX)−1XtH=X(XtX)−1XtH = X (X^tX)^{-1} X^t e a PRESS (soma residual prevista dos quadrados) é calculada por SSP=∑i(ei1−hii)2SSP=∑i(ei1−hii)2SS_P = \sum_i \left( \frac{e_i}{1-h_{ii}}\right)^2 onde é o th residual e o são …


1
Como funciona a imputação de ratos?
Fiquei me perguntando se alguém tinha experiência usando a função de ratos, como descrito em ratos: Imputação multivariada por equações encadeadas em R (JSS 2011 45 (3))? Eu tenho um conjunto de dados com um número de variáveis, cada uma com diferentes graus de dados ausentes. Minha pergunta principal é: …


4
Parcializar ou regredir uma variável categórica?
Ocasionalmente, vejo na literatura que uma variável categórica, como sexo, é "parcializada" ou "regredida" na análise de regressão (efeitos fixos ou efeitos mistos). Estou preocupado com os seguintes problemas práticos envolvidos nessa declaração: (1) Geralmente, o método de codificação não é mencionado no artigo. Essa variável deve ser codificada com …


5
A ANCOVA em R sugere interceptações diferentes, mas os ICs de 95% se sobrepõem ... como isso é possível?
Temos um conjunto de dados com duas covariáveis ​​e uma variável de agrupamento categórica e queremos saber se existem diferenças significativas entre a inclinação ou a interceptação entre as covariáveis ​​associadas às diferentes variáveis ​​de agrupamento. Usamos anova () e lm () para comparar os ajustes de três modelos diferentes: …




1
Abandono na regressão linear
Eu tenho lido o artigo original sobre desistência, ( https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf ) e na seção de regressão linear, afirma-se que: ER∼Bernoulli(p)[∥y −(R∗X)w∥2]ER∼Bernoulli(p)[‖y −(R∗X)w‖2]\mathbb{E}_{R\sim Bernoulli(p)}\left[\| y\ - (R*X)w\|^2\right] reduz para: ∥y−pXw∥2+p(1−p)∥Γw∥2‖y−pXw‖2+p(1−p)‖Γw‖2\|y - pXw\|^2 + p(1-p) \|\Gamma w\|^2 Estou tendo problemas para entender como eles chegaram a esse resultado. Alguém pode ajudar?

1
Mais preditores do que observações?
O que significa quando os estatísticos falam sobre ter mais preditores do que observações em um modelo de regressão? Como isso poderia ser possível? Por que é um problema de regressão? Desculpas, eu sou novo na análise quantitativa e estatísticas, então não tenho certeza por que isso acontece. Eu apreciaria …

1
Como escolher o tipo de parâmetros GAM
Comecei a trabalhar com o GAM em R e adquiri o excelente livro de Simon Wood sobre o tópico ( "Modelos aditivos generalizados, uma introdução ao R" ). Com base em um de seus exemplos, estou analisando o seguinte: library(mgcv) data(trees) ct1<-gam(log(Volume) ~ Height + s(Girth), data=trees) Eu tenho duas …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.