Não.
Embora os testes paramétricos possam ser mais poderosos, esse nem sempre é o caso. Quando não é o caso, geralmente é em situações em que você não deve executar os testes paramétricos.
Mas, mesmo se você estiver coletando amostras de tamanho decente de distribuições normais com igual variação, onde o teste paramétrico tem maior poder, não garante que, para qualquer experiência em particular, um teste paramétrico não significativo signifique um teste não paramétrico não significativo. Aqui está uma simulação que apenas usa amostragem aleatória de distribuições normais e descobre que cerca de 1,8% do tempo quando p> 0,05 para um teste t que p <0,05 para um teste de Wilcoxon.
nsim <- 10000
n <- 50
cohensD <- 0.2
Y <- replicate(nsim, {
y1 <- rnorm(n, 0, 1); y2 <- rnorm(n, cohensD, 1)
tt <- t.test(y1, y2, var.equal = TRUE)
wt <- wilcox.test(y1, y2)
c(tt$p.value, wt$p.value)})
sum(Y[1,] > 0.05 & Y[2,] < 0.05) / nsim
Você pode observar que, nesta simulação, a potência do teste paramétrico é maior que o teste não paramétrico (embora sejam semelhantes).
sum(Y[1,] < 0.05) / nsim #t-test power
sum(Y[2,] < 0.05) / nsim #wilcox.test power
Mas, como é mostrado acima, isso não significa que, em todos os casos em que o teste paramétrico falha em encontrar um efeito, o teste não paramétrico também falha.
Você pode jogar com esta simulação. Faça n bem grande, digamos 1000, e diminua o tamanho do efeito, digamos 0,02 (você precisa de pouca energia para ter muitas amostras em que o teste falha). Pode-se garantir com um n de 1000 que nenhuma das amostras seria rejeitada por não-normalidade (por inspeção, não por um teste estúpido) ou por ter discrepâncias suspeitas. Ainda assim, alguns dos testes paramétricos não são significativos, enquanto os testes não paramétricos são significativos.
Você também pode querer olhar para Hunter & May (1993).
Hunter, MA, e May, RB (1993). Alguns mitos sobre testes paramétricos e não paramétricos. Canadian Psychology, 34 (4), 384-389.