Alguém poderia explicar por que Richard McElreath diz que o teste exato de Fisher raramente é usado adequadamente em seu excelente livro de introdução bayesiano ( Statistical Repensing )?
Para referência, o contexto está abaixo:
Por que os testes não são suficientes para pesquisas inovadoras? Os procedimentos clássicos da estatística introdutória tendem a ser inflexíveis e frágeis. Por inflexível, quero dizer que eles têm maneiras muito limitadas de se adaptar a contextos de pesquisa exclusivos. Por frágil, quero dizer que eles falham de maneira imprevisível quando aplicados a novos contextos. Isso importa, porque nos limites da maioria das ciências quase nunca fica claro qual procedimento é apropriado. Nenhum dos golens tradicionais foi avaliado em novos ambientes de pesquisa e, portanto, pode ser difícil escolher um e depois entender como ele se comporta.Um bom exemplo é o teste exato de Fisher, que se aplica (exatamente) a um contexto empírico extremamente estreito, mas é usado regularmente sempre que a contagem de células é pequena. Eu pessoalmente li centenas de usos do teste exato de Fisher em revistas científicas, mas, além do uso original de Fisher, nunca o vi ser usado adequadamente. Mesmo um procedimento como a regressão linear comum, que é bastante flexível de várias maneiras, capaz de codificar uma grande diversidade de hipóteses interessantes, às vezes é frágil. Por exemplo, se houver um erro de medição substancial nas variáveis de previsão, o procedimento poderá falhar de maneira espetacular. Mais importante, porém, é quase sempre possível fazer melhor do que a regressão linear comum, principalmente devido a um fenômeno conhecido como sobreajuste.