Pergunta muito interessante, aqui está minha opinião.
É tudo sobre codificação de informações e, em seguida, gire a manivela bayesiana. Parece bom demais para ser verdade - mas ambos são mais difíceis do que parecem.
Eu começo com a pergunta
Quais informações estão sendo usadas quando nos preocupamos com várias comparações?
Eu posso pensar em alguns - o primeiro é "dragagem de dados" - teste "tudo" até que você obtenha aprovação / reprovação suficientes (eu acho que quase todas as pessoas treinadas em estatísticas estariam expostas a esse problema). Você também tem menos sinistro, mas essencialmente o mesmo "Eu tenho tantos testes para executar - certamente nem todos podem estar corretos".
Depois de pensar sobre isso, noto que você não costuma ouvir muito sobre hipóteses ou comparações específicas. É tudo sobre a "coleção" - isso desencadeia meu pensamento em relação à permutabilidade - as hipóteses comparadas são "semelhantes" umas às outras de alguma maneira. E como você codifica a permutabilidade na análise bayesiana? - hiperpriores, modelos mistos, efeitos aleatórios, etc !!!
Mas a permutabilidade apenas leva você a parte do caminho até lá. Tudo é intercambiável? Ou você tem "esparsidade" - como apenas alguns coeficientes de regressão diferentes de zero com um grande número de candidatos. Modelos mistos e efeitos aleatórios normalmente distribuídos não funcionam aqui. Eles ficam "presos" entre o ruído achatado e deixam os sinais intocados (por exemplo, no exemplo, mantenha os parâmetros locationB e locationC "true" iguais e defina o parâmetro locationA "true" arbitrariamente grande ou pequeno, e observe o modelo misto linear padrão falhar.) . Mas pode ser consertado - por exemplo, com anteriores de "espigão e laje" ou anteriores de "ferradura".
Portanto, trata-se realmente de descrever de que tipo de hipótese você está falando e de obter tantos recursos conhecidos refletidos na probabilidade e antes. A abordagem de Andrew Gelman é apenas uma maneira de lidar implicitamente com uma ampla classe de múltiplas comparações. Assim como os mínimos quadrados e as distribuições normais tendem a funcionar bem na maioria dos casos (mas não em todos).
Em termos de como isso ocorre, você pode pensar em uma pessoa que raciocina da seguinte maneira - o grupo A e o grupo B podem ter a mesma média - observei os dados e os meios estão "próximos" - Portanto, para obter uma estimativa melhor para ambos, devo reunir os dados, pois meu pensamento inicial era que eles tivessem a mesma média. - Se eles não são os mesmos, os dados fornecem evidências de que estão "próximos", portanto, agrupar "um pouco" não vai me machucar muito se minha hipótese estiver errada (a la todos os modelos estão errados, alguns são úteis)
Observe que todas as anteriores dependem da premissa inicial "elas podem ser as mesmas". Tire isso, e não há justificativa para o pool. Você provavelmente também pode ver uma maneira de "distribuição normal" de pensar sobre os testes. "Zero é mais provável", "se não for zero, então próximo de zero é o próximo mais provável", "valores extremos são improváveis". Considere esta alternativa:
- as médias do grupo A e do grupo B podem ser iguais, mas também podem ser drasticamente diferentes
Então, a discussão sobre agrupar "um pouco" é uma péssima idéia. É melhor escolher pool total ou pool zero. Muito mais parecido com um Cauchy, espigão e laje, tipo de situação (muita massa em torno de zero e muita massa por valores extremos)
As comparações múltiplas inteiras não precisam ser tratadas, porque a abordagem bayesiana está incorporando as informações que nos levam a nos preocupar com a anterior e / ou com a probabilidade . Em certo sentido, é mais um lembrete para pensar adequadamente sobre quais informações estão disponíveis para você e garantir que você as incluiu em sua análise.