Isso pode parecer um pouco de autopromoção (e acho que sim). Mas desenvolvi um pacote lsmeans para R (disponível no CRAN), projetado para lidar exatamente com esse tipo de situação. Aqui está como isso funciona para o seu exemplo:
> sample.data <- data.frame(IV=rep(1:4,each=20),DV=rep(c(-3,-3,1,3),each=20)+rnorm(80))
> sample.aov <- aov(DV ~ factor(IV), data = sample.data)
> library("lsmeans")
> (sample.lsm <- lsmeans(sample.aov, "IV"))
IV lsmean SE df lower.CL upper.CL
1 -3.009669 0.2237448 76 -3.4552957 -2.564043
2 -3.046072 0.2237448 76 -3.4916980 -2.600445
3 1.147080 0.2237448 76 0.7014539 1.592707
4 3.049153 0.2237448 76 2.6035264 3.494779
> contrast(sample.lsm, list(mycon = c(-3,-1,1,3)))
contrast estimate SE df t.ratio p.value
mycon 22.36962 1.000617 76 22.356 <.0001
Você pode especificar contrastes adicionais na lista, se quiser. Neste exemplo, você obterá os mesmos resultados com o contraste polinomial linear interno:
> con <- contrast(sample.lsm, "poly")
> con
contrast estimate SE df t.ratio p.value
linear 22.369618 1.0006172 76 22.356 <.0001
quadratic 1.938475 0.4474896 76 4.332 <.0001
cubic -6.520633 1.0006172 76 -6.517 <.0001
Para confirmar isso, observe que a "poly"
especificação direciona a chamada poly.lsmc
, o que produz estes resultados:
> poly.lsmc(1:4)
linear quadratic cubic
1 -3 1 -1
2 -1 -1 3
3 1 -1 -3
4 3 1 1
Se você deseja fazer um teste conjunto de vários contrastes, use a test
função com joint = TRUE
. Por exemplo,
> test(con, joint = TRUE)
Isso produzirá um teste "tipo III". Ao contrário car::Anova()
, ele será feito corretamente, independentemente da codificação de contraste usada no estágio de ajuste do modelo. Isso ocorre porque as funções lineares que estão sendo testadas são especificadas diretamente, e não implicitamente, através da redução do modelo. Uma característica adicional é que um caso em que os contrastes que estão sendo testados são linearmente dependentes é detectado e a estatística de teste correta e os graus de liberdade são produzidos.