Premissas de distribuição residual de regressão


12

Por que é necessário colocar a premissa distributiva nos erros, ou seja,

yi=Xβ+ϵi , comϵiN(0,σ2) .

Por que não escrever

yi=Xβ+ϵi , comyiN(Xβ^,σ2) ,

onde em qualquer dos casos ϵi=yiy^ .
Eu vi enfatizar que as premissas distributivas são colocadas nos erros, não nos dados, mas sem explicação.

Não estou realmente entendendo a diferença entre essas duas formulações. Em alguns lugares, vejo suposições distributivas sendo colocadas nos dados (parece bayesiano, na maioria das vezes), mas na maioria das vezes as suposições são colocadas nos erros.

Ao modelar, por que um / deveria escolher começar com suposições sobre um ou outro?


Primeiro, não é "necessário", depende do que você pretende fazer. Existem boas respostas, mas acho que o ponto crucial é a suposição subjacente de causalidade, no sentido de os Xs "causarem" oy, e se você olhar dessa maneira, verá que a distribuição de y é "causada" por a distribuição dos rhs, ou seja, os Xs e os erros (se houver). Você pode fazer muita econometria com premissas distributivas muito limitadas e, em particular, sem normalidade. Graças a Deus.
precisa saber é o seguinte

3
y^ não éXβ, e a média da população doy's não é a mesma que a estimativa de amostra do mesmo. O que significa dizer que a segunda coisa não é realmente a mesma coisa que o primeiro, mas se você substituí-lo com a sua expectativa (E(y^)=E(y)=Xβ), os dois seriam equivalentes.
Glen_b -Reinstala Monica

O que é y ? E se y i varia com i , por que X β não varia? Por favor, decida qual notação você deseja usar, o vetor ou matriz. Agora, se assumirmos que y = X β sua notação é mais do que bizarra: y i ~ N ( x ' i ( Σ x j x ' j ) - 1 Σ x j y j , σ 2 , ou seja, você define a distribuição dey^yiiXβy^=Xβ^yiN(xi(xjxj)1xjyj,σ2) em termos de si mesma e todas as outras observações yyi ! yj
Mvctas

1
Eu diminuí a votação da pergunta porque acho que a notação é confusa e isso já resultou em várias respostas sutilmente conflitantes.
Mvctas

Respostas:


9

Em uma configuração de regressão linear, é comum fazer análises e derivar resultados condicionais em , isto é, condicionais nos "dados". Portanto, o que você precisa é que y X seja normal, ou seja, você precisa ϵ ser normal. Como o exemplo de Peter Flom ilustra, pode-se ter uma normalidade de ϵ sem ter a normalidade de y e, portanto, como o que você precisa é de normalidade de ϵ , essa é a suposição sensata.XyXϵϵyϵ


8

Eu escreveria a segunda definição como

yiN(Xiβ,σ2)

ou (como Karl Oskar sugere +1)

yi|XiN(Xiβ,σ2)

isto é, a suposição de modelagem é que a variável resposta é normalmente distribuída em torno da linha de regressão (que é uma estimativa da média condicional), com variação constante . Esta não é a mesma coisa que sugere que y i são normalmente distribuídos, porque a média da distribuição depende de X i .σ2yiXi

Eu acho que vi formulações semelhantes a isso na literatura de aprendizado de máquina; tanto quanto eu posso ver isso é equivalente à primeira definição, tudo o que tenho feito é rexpress a segunda formulação um pouco diferente para eliminar a 's e y ' s.ϵiy^


3

The difference is easiest to illustrate with an example. Here's a simple one:

Suponha que Y seja bimodal, com a modalidade explicada por uma variável independente. Por exemplo, suponha que Y seja a altura e sua amostra (por qualquer motivo) consiste em jóqueis e jogadores de basquete. por exemplo, emR

set.seed(123)
tall <- rnorm(100, 78, 3)
short <- rnorm(100, 60, 3)

height <- c(tall, short)
sport <- c(rep("B", 100), rep("H",100))

plot(density(height))

m1 <- lm(height~sport)
plot(m1)

a primeira densidade é muito fora do normal. Mas os resíduos do modelo são extremamente próximos do normal.

Quanto ao motivo pelo qual as restrições são colocadas dessa maneira - deixarei que outra pessoa responda a essa pergunta.


1
Obrigado! Entendo o que você quer dizer com distribuição bimodal. Pergunta de acompanhamento: E se as variações dos dados forem diferentes (heterocedasticidade?) Digamos ... todos os jóqueis são pequenos, mas as alturas dos jogadores de basquete variam muito. Talvez para eles, alto <- rnorm (100,78,10). Como uma situação como essa altera suas suposições sobre ou ϵ i ? yiϵi
bill_e

In that case, heteroscedasticity would be a problem and you would need to use some other form of regression, or possibly some transformation, or you could add another variable (in this silly example, position played in basketball might do it).
Peter Flom - Reinstate Monica

I'm not sure the formulation is intended to suggest that the ys are normally distributed, just that they have a normal conditional distribution.
Dikran Marsupial

2


yiN(y^i,σε2)
y^xi

y^ixiβ^. This leads to the formulation @DikranMarsupial presents:

yiN(xiβ^,σε2)
It is worth recognizing that this is exactly the same as your first formulation, because both stipulate normal distributions and the expected values are equal. That is:
E[xiβ^]=E[xiβ^+E[N(0,σε2)]]=E[xiβ^+0]=E[xiβ^]
(And obviously the variances are equal.) In other words, this is not a difference in assumptions, but simply a notational difference.

So the question becomes, is there a reason to prefer presenting the idea using the first formulation?

I think the answer is yes for two reasons:

  1. People often confuse whether the raw data should be normally distributed (i.e., Y), or if the data conditional on X / the errors should be normally distributed (i.e., Y|X / ε), for example, see: What if residuals are normally distributed, but y is not?
  2. People also often confuse what is supposed to be independent, the raw data or the errors. Moreover, we often mention the fact that something should be iid (independent and identically distributed); if you are thinking in terms of Y|X this can be another potential source of confusion, as Y|X can be independent, but cannot be identically distributed unless the null hypothesis holds (because the mean would vary).

I believe these confustions are more likely using the second formulation than the first.


1
@Glen_b, I don't follow your comment. My claim is not that y^ is equal to Xβ, but rather that y^i is equal to xiβ^. The subscripted i indexing the observations is relevant. The idea is that the predicted value, y^i, for a given observation is xiβ^. This has nothing to do w/ the population mean of Y. (It appears that I had forgotten to add hats to my betas, though; I've corrected that now.)
gung - Reinstate Monica

@Glen_b if it were the sample mean it would be y¯ rather than y^. I initially found the notation confusing as well, but the fact that y^=Xβ follows from the statements that yi=Xβ+ϵi and ϵi=yiy^. For both of these things to be true, y^ can only be Xβ.
Dikran Marsupial
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.