As correções dos graus de liberdade devem ser usadas para inferência nos parâmetros GLM?


11

Esta pergunta é inspirada na resposta de Martijn aqui .

Suponha que ajustemos um GLM para uma família de um parâmetro como um modelo binomial ou de Poisson e que seja um procedimento de probabilidade total (ao contrário de quasipoisson). Então, a variação é uma função da média. Com binomial: e com Poisson .var [ X ] = E [ X ]var[X]=E[X]E[1-X]var[X]=E[X]

Diferentemente da regressão linear, quando os resíduos são normalmente distribuídos, a distribuição amostral finita e exata desses coeficientes não é conhecida, é uma combinação possivelmente complicada dos resultados e covariáveis. Além disso, usando a estimativa da média do GLM , que será usada como uma estimativa de plug-in para a variação do resultado.

Como a regressão linear, no entanto, os coeficientes têm uma distribuição normal assintótica e, portanto, na inferência finita da amostra, podemos aproximar sua distribuição amostral com a curva normal.

Minha pergunta é: ganhamos alguma coisa usando a aproximação da distribuição T à distribuição amostral dos coeficientes em amostras finitas? Por um lado, sabemos a variação e ainda não sabemos a distribuição exata; portanto, uma aproximação T parece ser a escolha errada quando um estimador de inicialização ou canivete pode explicar adequadamente essas discrepâncias. Por outro lado, talvez o ligeiro conservadorismo da distribuição T seja simplesmente preferido na prática.


1
boa pergunta. Você pode querer olhar para as correções de Bartlett .
precisa

1
Penso que esta questão está mal colocada. Ao usar o MLE ou o QMLE, você só tem estimativa e inferência assintoticamente justificadas. perguntando se a suposição A ou B é melhor em configurações finitas não pode ser respondida, ela sempre ferverá para o mundano "depende dos dados e das suposições que você deseja fazer". Pessoalmente, gosto de fazer bootstrap e utilizá-lo sempre que posso, mas não é mais errado usar o teste padrão z ou t - ele não permite que você escape do problema de pequenos dados e ainda faz suposições (apenas outras diferentes) )
Repmat

Respostas:


3

Resposta curta: Ainda não é uma resposta completa, mas você pode estar interessado nas seguintes distribuições relacionadas à pergunta vinculada: Ele compara o teste z (como também usado pelo glm) e o teste t

    layout(matrix(1:2,1,byrow=TRUE))

    # trying all 100 possible outcomes if the true value is p=0.7
    px <- dbinom(0:100,100,0.7)
    p_model = rep(0,101)
    p_model2 = rep(0,101)
    for (i in 0:100) {
      xi = c(rep(1,i),rep(0,100-i))
      model = glm(xi ~ 1, offset=rep(qlogis(0.7),100), family="binomial")
      p_model[i+1] = 1-summary(model)$coefficients[4]
      model2 <- glm(xi ~ 1, family = "binomial")
      coef <- summary(model2)$coefficients
      p_model2[i+1] = 1-2*pt(-abs((qlogis(0.7)-coef[1])/coef[2]),99,ncp=0)
    }


    # plotting cumulative distribution of outcomes z-test
    outcomes <- p_model[order(p_model)]
    cdf <- cumsum(px[order(p_model)])
    plot(1-outcomes,1-cdf, 
         ylab="cumulative probability", 
         xlab= "calculated glm p-value",
         xlim=c(10^-4,1),ylim=c(10^-4,1),col=2,cex=0.5,log="xy")
    lines(c(0.00001,1),c(0.00001,1))
    for (i in 1:100) {
      lines(1-c(outcomes[i],outcomes[i+1]),1-c(cdf[i+1],cdf[i+1]),col=2)
    #  lines(1-c(outcomes[i],outcomes[i]),1-c(cdf[i],cdf[i+1]),col=2)
    }

    title("probability for rejection with z-test \n as function of set alpha level")


    # plotting cumulative distribution of outcomes t-test
    outcomes <- p_model2[order(p_model2)]
    cdf <- cumsum(px[order(p_model2)])
    plot(1-outcomes,1-cdf, 
         ylab="cumulative probability", 
         xlab= "calculated glm p-value",
         xlim=c(10^-4,1),ylim=c(10^-4,1),col=2,cex=0.5,log="xy")
    lines(c(0.00001,1),c(0.00001,1))
    for (i in 1:100) {
      lines(1-c(outcomes[i],outcomes[i+1]),1-c(cdf[i+1],cdf[i+1]),col=2)
      #  lines(1-c(outcomes[i],outcomes[i]),1-c(cdf[i],cdf[i+1]),col=2)
    }

    title("probability for rejection with t-test \n as function of set alpha level")
    [![p-test vs t-test][1]][1]

E há apenas uma pequena diferença. E também o teste z é realmente melhor (mas isso pode ocorrer porque o teste t e o teste z estão "errados" e possivelmente o erro do teste z compensa esse erro).

insira a descrição da imagem aqui

Resposta longa: ...

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.