Estou escrevendo um script que analisa os tempos de execução dos processos. Não tenho certeza de sua distribuição, mas quero saber se um processo é executado "muito longo". Até agora, eu tenho usado três desvios padrão dos últimos tempos de execução (n> 30), mas me disseram que isso não fornece nada de útil se os dados não forem normais (o que parece não ser). Encontrei outro teste outlier que afirma:
Encontre o intervalo interquartil, que é IQR = Q3 - Q1, onde Q3 é o terceiro quartil e Q1 é o primeiro quartil. Em seguida, encontre estes dois números:
a) Q1 - 1,5 * IQR b) Q3 + 1,5 * IQR
O ponto é um outlier se <a ou> b
Meus dados tendem a ser 2seg, 3seg, 2seg, 5seg, 300seg, 4seg, .... onde 300seg é obviamente um erro.
Qual método é melhor? O método IQR ou o método de desvio padrão?