Na (grande parte) da literatura química analítica, o teste padrão para detectar valores extremos em dados univariados (por exemplo, uma sequência de medições de algum parâmetro) é o teste Q de Dixon. Invariavelmente, todos os procedimentos listados nos livros didáticos calculam uma quantidade dos dados para serem comparados com um valor tabular. À mão, isso não é muito preocupante; no entanto, estou planejando escrever um programa de computador para o Dixon Q, e apenas o cache de valores me parece deselegante. O que me leva à minha primeira pergunta:
- Como são gerados os valores tabulares do Dixon Q?
Agora, já examinei este artigo , mas sinto que isso é um pouco de trapaça, pois o autor apenas constrói um spline que passa pelos valores tabulares gerados por Dixon. Tenho a sensação de que uma função especial (por exemplo, função de erro ou beta / gama incompleta) será necessária em algum lugar, mas pelo menos eu tenho algoritmos para elas.
Agora, para a minha segunda pergunta: a ISO parece estar recomendando lentamente o teste de Grubbs sobre o Dixon Q hoje em dia, mas, a julgar pelos livros didáticos, ainda não conseguiu entender. Por outro lado, isso foi relativamente fácil de implementar, pois envolve apenas o cálculo do inverso do CDF do Student t. Agora, minha segunda pergunta:
- Por que eu iria querer usar o Grubbs em vez do Dixon?
Na frente óbvia no meu caso, o algoritmo é "mais puro", mas suspeito que haja razões mais profundas. Alguém pode me esclarecer?