Perguntas com a marcação «least-squares»

Refere-se a uma técnica de estimativa geral que seleciona o valor do parâmetro para minimizar a diferença ao quadrado entre duas quantidades, como o valor observado de uma variável e o valor esperado dessa observação, condicionado ao valor do parâmetro. Os modelos lineares gaussianos são ajustados por mínimos quadrados e mínimos quadrados é a ideia subjacente ao uso do erro quadrático médio (MEE) como forma de avaliar um estimador.


1
Prova da fórmula LOOCV
De Uma Introdução à Aprendizagem Estatística de James et al., A estimativa de validação cruzada de saída única (LOOCV) é definida por que .cv( N )= 1n∑i = 1nMSEEucv(n)=1n∑Eu=1nMSEEu\text{CV}_{(n)} = \dfrac{1}{n}\sum\limits_{i=1}^{n}\text{MSE}_iMSEEu= ( yEu- y^Eu)2MSEEu=(yEu-y^Eu)2\text{MSE}_i = (y_i-\hat{y}_i)^2 Sem prova, a equação (5.2) afirma que, para mínimos quadrados ou regressão polinomial (se …


3
Por que não usar as "equações normais" para encontrar coeficientes simples de mínimos quadrados?
Eu vi essa lista aqui e não podia acreditar que havia tantas maneiras de resolver mínimos quadrados. As "equações normais" na Wikipedia pareciam ser um caminho bastante direto: α^β^=y¯−β^x¯,=∑ni=1(xi−x¯)(yi−y¯)∑ni=1(xi−x¯)2α^=y¯−β^x¯,β^=∑i=1n(xi−x¯)(yi−y¯)∑i=1n(xi−x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\bar {y}}-{\hat {\beta }}\,{\bar {x}},\\{\hat {\beta }}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}} Então, por que não usá-los? …

1
Polarização variável omitida na regressão logística vs. polarização variável omitida na regressão de mínimos quadrados ordinários
Eu tenho uma pergunta sobre o viés variável omitido na regressão logística e linear. Digamos que eu omita algumas variáveis ​​de um modelo de regressão linear. Finja que essas variáveis ​​omitidas não estão correlacionadas com as variáveis ​​que incluí no meu modelo. Essas variáveis ​​omitidas não influenciam os coeficientes no …

4
O que é a relação entre
Eu queria saber se existe uma relação entre e um teste-F.R2R2R^2 Normalmente, R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R^2=\frac {\sum (\hat Y_t - \bar Y)^2 / T-1} {\sum( Y_t - \bar Y)^2 / T-1} e mede a intensidade da relação linear na regressão. Um teste F apenas prova uma hipótese. Existe uma relação entre R2R2R^2 e …



1
Pergunta sobre como normalizar o coeficiente de regressão
Não tenho certeza se normalizar é a palavra correta a ser usada aqui, mas tentarei ilustrar o que estou tentando perguntar. O estimador usado aqui é de mínimos quadrados. Suponha que você tem y=β0+β1x1y=β0+β1x1y=\beta_0+\beta_1x_1 , você pode centralizá-lo em torno da média de y=β′0+β1x′1y=β0′+β1x1′y=\beta_0'+\beta_1x_1' onde β′0=β0+β1x¯1β0′=β0+β1x¯1\beta_0'=\beta_0+\beta_1\bar x_1 e x′1=x−x¯x1′=x−x¯x_1'=x-\bar x …


2
Medidas de heterocedasticidade de resíduos
Este link da Wikipedia lista uma série de técnicas para detectar a heterocedasticidade dos resíduos de OLS. Eu gostaria de aprender qual técnica prática é mais eficiente na detecção de regiões afetadas pela heterocedasticidade. Por exemplo, aqui a região central do gráfico OLS 'Residuals vs Fitted' parece ter uma variação …


1
Por que essa regressão NÃO falha devido à perfeita multicolinearidade, embora uma variável seja uma combinação linear de outras?
Hoje, eu estava brincando com um pequeno conjunto de dados e realizei uma regressão OLS simples que esperava falhar devido à perfeita multicolinearidade. No entanto, não. Isso implica que meu entendimento da multicolinearidade está errado. Minha pergunta é: onde estou errado? Eu acho que posso mostrar que uma das minhas …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.