Não é exatamente a mesma coisa, no sentido de que a prática de testar se as suposições foram violadas pretendia originalmente garantir uma análise apropriada, mas, como se vê, tem algumas das mesmas consequências (veja, por exemplo, esta pergunta ) . Mas é de uma forma mais branda do que as variantes mais extremas de hackers p que são especificamente direcionadas para obter o valor de p para o efeito de interesse abaixo de 0,05. Isto é, a menos que você comece a combinar várias práticas problemáticas (por exemplo, verificação de normalidade, verificação de homocedasticidade, verificação de covariáveis que "deveriam" estar no modelo, verificação de linearidade de covariáveis, verificação de interações etc.). Não tenho certeza se alguém analisou o quanto isso invalida a análise final.
Obviamente, a outra questão é que testar a normalidade normalmente não é significativo (veja, por exemplo, esta discussão ). Para amostras pequenas, você não recebe desvios maciços que violam realmente suas suposições, enquanto para amostras grandes, por exemplo, o teste t se torna bastante robusto, mas o teste de normalidade começará a detectar pequenos desvios que não importam. É muito melhor (sempre que possível) especificar um modelo apropriado com base em dados anteriores ou no conhecimento do assunto. Quando isso não for possível, talvez seja melhor usar métodos mais robustos para violações de premissas distributivas ou que não tenham nenhum / menos.