Perguntas com a marcação «regression»

Técnicas para analisar o relacionamento entre uma (ou mais) variáveis ​​"dependentes" e variáveis ​​"independentes".




2
Qual é a maneira correta de testar as diferenças significativas entre os coeficientes?
Espero que alguém possa ajudar a esclarecer um ponto de confusão para mim. Digamos que eu queira testar se 2 conjuntos de coeficientes de regressão são significativamente diferentes um do outro, com a seguinte configuração: , com 5 variáveis ​​independentes.yi=α+βxi+ϵiyi=α+βxi+ϵiy_i = \alpha + \beta x_i + \epsilon_i 2 grupos, com …

1
Suposições do LASSO
Em um cenário de regressão do LASSO, em que y= Xβ+ ϵy=Xβ+ϵy= X \beta + \epsilon , e as estimativas do LASSO são fornecidas pelo seguinte problema de otimização minβ| | y- Xβ| | +τ| | β| |1minβ||y-Xβ||+τ||β||1 \min_\beta ||y - X \beta|| + \tau||\beta||_1 Existem suposições distributivas em relação …



3
Por que não usar as "equações normais" para encontrar coeficientes simples de mínimos quadrados?
Eu vi essa lista aqui e não podia acreditar que havia tantas maneiras de resolver mínimos quadrados. As "equações normais" na Wikipedia pareciam ser um caminho bastante direto: α^β^=y¯−β^x¯,=∑ni=1(xi−x¯)(yi−y¯)∑ni=1(xi−x¯)2α^=y¯−β^x¯,β^=∑i=1n(xi−x¯)(yi−y¯)∑i=1n(xi−x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\bar {y}}-{\hat {\beta }}\,{\bar {x}},\\{\hat {\beta }}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}} Então, por que não usá-los? …

1
Existe uma interpretação bayesiana de regressão linear com regularização simultânea de L1 e L2 (também conhecida como rede elástica)?
É sabido que a regressão linear com uma penalidade de é equivalente a encontrar a estimativa de MAP dada uma Gaussiana antes dos coeficientes. Da mesma forma, usar uma penalidade de é equivalente a usar uma distribuição de Laplace como a anterior.eu2eu2l^2eu1eu1l^1 Não é incomum usar alguma combinação ponderada de …

2
Por que exatamente a regressão beta não pode lidar com 0s e 1s na variável de resposta?
A regressão beta (ou seja, GLM com distribuição beta e geralmente a função de link de logit) é frequentemente recomendada para lidar com a resposta, também conhecida como variável dependente, recebendo valores entre 0 e 1, como frações, proporções ou probabilidades: Regressão para um resultado (proporção ou fração) entre 0 …



2
O que um Gráfico de Variável Adicionado (Gráfico de Regressão Parcial) explica em uma regressão múltipla?
Eu tenho um modelo de conjunto de dados Movies e usei a regressão: model <- lm(imdbVotes ~ imdbRating + tomatoRating + tomatoUserReviews+ I(genre1 ** 3.0) +I(genre2 ** 2.0)+I(genre3 ** 1.0), data = movies) res <- qplot(fitted(model), resid(model)) res+geom_hline(yintercept=0) O que deu a saída: Agora tentei trabalhar com algo chamado Added …

1
Polarização variável omitida na regressão logística vs. polarização variável omitida na regressão de mínimos quadrados ordinários
Eu tenho uma pergunta sobre o viés variável omitido na regressão logística e linear. Digamos que eu omita algumas variáveis ​​de um modelo de regressão linear. Finja que essas variáveis ​​omitidas não estão correlacionadas com as variáveis ​​que incluí no meu modelo. Essas variáveis ​​omitidas não influenciam os coeficientes no …

2
Interpretação da regressão logística ordinal
Eu executei essa regressão logística ordinal em R: mtcars_ordinal <- polr(as.factor(carb) ~ mpg, mtcars) Eu recebi este resumo do modelo: summary(mtcars_ordinal) Re-fitting to get Hessian Call: polr(formula = as.factor(carb) ~ mpg, data = mtcars) Coefficients: Value Std. Error t value mpg -0.2335 0.06855 -3.406 Intercepts: Value Std. Error t value …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.