Ao fazer estatísticas freqüentes, há uma longa lista de grandes nomes, como observar os resultados dos testes estatísticos antes de decidir coletar mais dados. Em geral, estou me perguntando se existe uma lista semelhante de não-nos para as metodologias envolvidas nas estatísticas bayesianas, e especificamente se o seguinte é uma delas.
Percebi recentemente que, para alguns dos modelos em que me encaixei, meu processo foi primeiro ajustá-lo a anteriores informativos para ver se ele funciona ou explodir e depois enfraquecê-los para informações pouco informativas ou pouco informativas e reinstale o modelo.
Minha motivação para isso realmente tem a ver com o fato de eu estar escrevendo esses modelos no JAGS / Stan e, em minha mente, tenho tratado isso mais como uma tarefa de programação do que estatística. Então, eu faço uma primeira execução, meio que o manipula para convergir rapidamente usando anteriores informativos, facilitando a captura de erros no modelo que eu escrevi. Então, depois de depurar o modelo, eu o reposiciono com anteriores pouco informativos ou pouco informativos.
Minha pergunta é se estou violando ou não algumas regras sérias com esse processo. Por exemplo, para que minhas inferências sejam válidas e para evitar explorar os graus de liberdade dos pesquisadores, preciso me comprometer com anteriores específicos antes de começar a ajustar algum modelo?