Receio que perguntas relacionadas não tenham respondido às minhas. Avaliamos o desempenho de> 2 classificadores (aprendizado de máquina). Nossa hipótese nula é que os desempenhos não diferem. Realizamos testes paramétricos (ANOVA) e não paramétricos (Friedman) para avaliar esta hipótese. Se eles são significativos, queremos descobrir quais classificadores diferem em uma missão post-hoc.
Minha pergunta é dupla:
1) É necessária uma correção dos valores de p após o teste de múltiplas comparações? O site da Wikipedia em alemão "Alphafehler Kumulierung" diz que o problema só ocorre se várias hipóteses forem testadas nos mesmos dados. Ao comparar os classificadores (1,2), (1,3), (2,3), os dados se sobrepõem apenas parcialmente. Ainda é necessário corrigir os valores de p?
2) A correção do valor P é freqüentemente usada após o teste em pares com um teste t. Também é necessário ao realizar testes post-hoc especializados, como o teste HSD de Nemenyi (não paramétrico) ou Tukey? Esta resposta diz "não" para o HSD de Tukey: O teste de Tukey HSD corrige várias comparações? . Existe uma regra ou eu tenho que procurar isso para cada teste post-hoc em potencial?
Obrigado!