Por que os resíduos de Pearson de uma regressão binomial negativa são menores do que os de uma regressão de Poisson?


9

Eu tenho esses dados:

set.seed(1)
predictor  <- rnorm(20)
set.seed(1)
counts <- c(sample(1:1000, 20))
df <- data.frame(counts, predictor)

Fiz uma regressão de Poisson

poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson")

E uma regressão binomial negativa:

require(MASS)
nb_counts <- glm.nb(counts ~ predictor, data = df)

Então eu calculei para estatísticas de dispersão para a regressão de poisson:

sum(residuals(poisson_counts, type="pearson")^2)/df.residual(poisson_counts)

# [1] 145.4905

E a regressão binomial negativa:

sum(residuals(nb_counts, type="pearson")^2)/df.residual(nb_counts)

# [1] 0.7650289

Alguém é capaz de explicar, SEM USAR EQUAÇÕES, por que a estatística de dispersão para a regressão binomial negativa é consideravelmente menor que a estatística de dispersão para a regressão de poisson?

Respostas:


9

Isso é bastante direto, mas o "sem usar equações" é uma desvantagem substancial. Eu posso explicar isso em palavras, mas essas palavras necessariamente refletem equações. Espero que seja aceitável / ainda tenha algum valor para você. (As equações relevantes não são difíceis.)

Existem vários tipos de resíduos. Os resíduos brutos são simplesmente a diferença entre os valores de resposta observados (no seu caso, o counts) e os valores de resposta previstos do modelo. Os resíduos de Pearson dividem esses pelo desvio padrão (a raiz quadrada da função de variação para a versão específica do modelo linear generalizado que você está usando).

O desvio padrão associado à distribuição de Poisson é menor que o do binômio negativo . Assim, quando você divide por um denominador maior, o quociente é menor.

Além disso, o binômio negativo é mais apropriado ao seu caso, porque o seu countsserá distribuído como um uniforme na população. Ou seja, sua variação não será igual à sua média.


4
Embora o PO solicite uma explicação não matemática, ainda seria bom ver justificativa matemática (ou alguma igualmente rigorosa e clara) para essa resposta. Ao ler a pergunta, minha intuição foi a de que "como o Poisson é um caso especial (limitante) do RN e o RN tem mais parâmetros, há mais flexibilidade no ajuste, portanto, é claro que qualquer medida razoável de resíduos não deve aumentar ao substituir um Poisson GLM por um NB GLM. " Pergunto-me se essa intuição estava realmente correta.
whuber

Se , E [ X ] = V [ X ] = λ . Se X NegBin ( r , p ) , E [ X ] = p r / ( 1 - p ) e V [ X ] = p r / ( 1 - p ) 2XPoisson(λ)E[X]=V[X]=λXNegBin(r,p)E[X]=pr/(1 1-p)V[X]=pr/(1 1-p)2. Portanto, uma variação de Poisson é igual à média, uma variação de NegBin é maior que a média ( ). É por isso que "o desvio padrão associado à distribuição de Poisson é menor que o do binômio negativo". p<1 1(1 1-p)2<(1 1-p)
Sergio

3
@Sergio O cerne da questão, porém, é que no modelo de Poisson, estamos trabalhando com a estimativa λ em vez de λ em si e no modelo NB estamos a trabalhar da mesma forma com duas estimativas de r e p . Sua comparação, portanto, não se aplica diretamente. Sem realmente escrever as fórmulas para os MLEs nos dois modelos, não é de todo óbvio quais devem ser as relações entre esses conjuntos de estimativas. Além disso, o resíduo de Pearson é uma razão e o argumento sobre variações refere-se apenas aos denominadores, o que é apenas metade da história. λ^λr^p^
whuber

As estimativas do MLE são consistentes. O problema é que quando, como diz Gung, "as contagens serão distribuídas como uniformes na população. Ou seja, sua variação não será igual à média", você nunca poderá obter uma variação estimada de Poisson maior que a estimativa Poisson significa, mesmo que suas estimativas sejam imparciais e consistentes. É um problema de especificação incorreta.
Sergio

5

Para o modelo de Poisson, se o expection para o th observação Y i é μ i sua variância é μ i , & a Pearson residual por conseguinteEuYEuμEuμEu

yEu-μ^Euμ^Eu

em que μ é a estimativa da média. A parametrização do modelo binomial negativo usado no MASS é explicada aqui . Se a expectativa para a i- ésima observação Y i é μ i, sua variação é μ i + μ 2μ^EuYEuμEu e, portanto, o resíduo de PearsonμEu+μ2θ

yEu-μ~Euμ~Eu+μ~2θ

μ~θμ^μ~EuCom o padrão preditivo, eles se aproximavam e, em geral, a adição de um parâmetro deve se encaixar melhor em todas as observações, embora eu não saiba como demonstrar isso rigorosamente. Mesmo assim, as quantidades populacionais estimadas são maiores se o modelo de Poisson se mantiver, então não deve ser uma surpresa.]


11
μEu

@whuber Nesse caso, verifica-se que os valores ajustados para os dois modelos são quase idênticos. Afinal, o modelo "verdadeiro" realmente tem apenas uma interceptação e está basicamente modelando a média, já que não há relação entre x e Y na simulação.
jsk

11
μEu

11
μEu

11
(yEu|λ,vEu,r)PoEusson(λvEu)(vEu|λ,r)Gumammuma(r,r)(yEu|λ,r)NB(r,λr+λ)vEuyEu>λvEu>1 1
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.