Equivalência nunca é algo que possamos testar . Pense na hipótese: vs . A teoria do NHST nos diz que, sob o nulo, podemos escolher qualquer coisa em que melhor se ajuste aos dados. Isso significa que quase sempre podemos chegar arbitrariamente perto da distribuição. Por exemplo, se eu quiser testar , o modelo de probabilidade que permite distribuições separadas de e sempre será mais provável em nulo, uma violação de suposições críticas de teste. Mesmo se a amostraH 1 : f x = f y H 0 f x ~ N (0,1) f X f Y X=Y f y ≈ f xH0:fx≠fyH1:fx=fyH0fx∼N(0,1)f^xf^yX=Yidenticamente, posso obter uma taxa de probabilidade arbitrariamente próxima de 1 com .fy≈fx
Se você conhece um modelo de probabilidade adequado para os dados, pode usar um critério de informações penalizadas para classificar modelos alternativos. Uma maneira é usar os BICs dos dois modelos de probabilidade (o estimado em e . Eu usei um modelo de probabilidade normal, mas você pode facilmente obter um BIC de qualquer tipo do procedimento de máxima verossimilhança, manualmente ou usando o GLM.Este post do Stackoverflow recebe detalhes básicos para distribuições apropriadas.Um exemplo de como fazer isso é o seguinte:H 1H0H1
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
dá
> mean(p)
[1] 0.034
p aqui é a proporção de vezes que o BIC do modelo nulo (modelos separados) é melhor (menor) que o modelo alternativo (modelo equivalente). Isso é notavelmente próximo do nível nominal de 0,05 dos testes estatísticos.
Por outro lado, se tomarmos:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
x <- x + 0.4*g
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
Dá:
> mean(p)
[1] 0.437
Como no NHST, existem questões sutis de poder e taxas de erro falso positivo que devem ser exploradas com simulação antes de se tirar conclusões definitivas.
Penso que um método semelhante (talvez mais geral) está usando estatísticas bayesianas para comparar a estimativa posterior em qualquer modelo de probabilidade.