Eu sugeriria que esse é um problema de como os resultados são relatados. Não "bater o tambor bayesiano", mas abordar a incerteza do modelo de uma perspectiva bayesiana como um problema de inferência ajudaria muito aqui. E não precisa ser uma grande mudança também. Se o relatório contivesse apenas a probabilidade de o modelo ser verdadeiro, isso seria muito útil. Essa é uma quantidade fácil de aproximar usando o BIC. Ligue para o BIC para o mésimo modelo . Então, a probabilidade de que o modelo m seja o modelo "verdadeiro", considerando que os modelos M eram adequados (e que um dos modelos é verdadeiro) é dada por:BICmM
=1
P(model m is true|one of the M models is true)≈wmexp(−12BICm)∑Mj=1wjexp(−12BICj)
=11+∑Mj≠mwjwmexp(−12(BICj−BICm))
Onde é proporcional à probabilidade anterior para o j-ésimo modelo. Observe que isso inclui uma "penalidade" para tentar vários modelos - e a penalidade depende de quão bem os outros modelos se ajustam aos dados. Normalmente, você irá definir w j = 1 , no entanto, você pode ter alguns modelos "teóricos" dentro de sua classe que seria de esperar para ser melhor antes de ver quaisquer dados.wjwj=1
BICfinal<BICjpd
M≥1+p+(p−1)+⋯+(p−d+1)=1+p(p−1)−(p−d)(p−d−1)2
M≥1+p+(p−1)+⋯+(d+1)=1+p(p−1)−d(d−1)2
MBICjλBICm=BICj−λ
11+(M−1)exp(−λ2)
λMM
11+p(p−1)−d(d−1)2exp(−λ2)
p=50d=20λP0
λ>−2log(2(1−P0)P0[p(p−1)−d(d−1)])
P0=0.9λ>18.28