Por causa dos seus comentários, farei duas seções separadas:
valores p
No teste de hipótese estatística, você pode encontrar 'evidência estatística' para a hipótese alternativa ; Como expliquei em O que se segue se falharmos em rejeitar a hipótese nula? , é semelhante a 'prova por contradição' em matemática.
Portanto, se queremos encontrar 'evidência estatística', assumimos o oposto, que denotamos do que tentamos provar que chamamos de H 1 . Depois disso, extraímos uma amostra e, a partir da amostra, calculamos a chamada estatística de teste (por exemplo, um valor t em um teste t).H0H1
Então, como assumimos que é verdadeiro e que nossa amostra é retirada aleatoriamente da distribuição em H 0 , podemos calcular a probabilidade de observar valores que excedam ou igualam o valor derivado de nossa amostra (aleatória). Essa probabilidade é chamada de valor-p.H0H0
Se esse valor for "suficientemente pequeno", ou seja, menor que o nível de significância escolhido, rejeitamos e consideramos que H 1 é "estatisticamente comprovado".H0H1
Várias coisas são importantes nessa maneira de fazer:
- derivamos probabilidades sob a suposição de que é verdadeiroH0
- tiramos uma amostra aleatória da distribuição que foi assumida sob H0
- que decidir ter evidência encontrada para se o teste-estatística derivado da amostra aleatória tem uma baixa probabilidade de ser excedido. Portanto, não é impossível que seja excedido enquanto H 0 é verdadeiro e, nesses casos, cometemos um erro do tipo I. H1H0
Então, o que é um erro do tipo I: um erro do tipo I é cometido quando a amostra, extraída aleatoriamente de , leva à conclusão de que H 0 é falso, enquanto na realidade é verdade.H0H0
Note que isto implica que um p-valor não é a probabilidade de um erro de tipo I . De fato, um erro do tipo I é uma decisão errada do teste e a decisão só pode ser tomada comparando o valor-p com o nível de significância escolhido, com um valor-p sozinho não é possível tomar uma decisão, é somente após a comparação o valor p para o nível de significância escolhido que uma decisão é tomada e, desde que nenhuma decisão seja tomada, o erro do tipo I nem mesmo é definido.
Qual é então o valor de p? A rejeição potencialmente errada de se deve ao fato de desenharmos uma amostra aleatória sob H 0 , de modo que podemos ter "má sorte" ao desenhar a amostra e que essa "má sorte" leva a uma falsa rejeição de H 0 . Portanto, o valor p (embora isso não esteja totalmente correto) é mais parecido com a probabilidade de extrair uma "amostra ruim". A interpretação correta do valor-p é que é a probabilidade de a estatística de teste exceder ou ser igual ao valor da estatística de teste derivada de uma amostra sorteada sob H 0H0H0H0H0
Taxa de descoberta falsa (FDR)
Como explicado acima, cada vez que a hipótese nula é rejeitada, considera-se como 'evidência estatística' para . Por isso, descobrimos novos conhecimentos científicos, por isso é chamado de descoberta . Também explicado acima é que podemos fazer descobertas falsas (ou seja, rejeitar falsamente H 0 ) quando cometemos um erro do tipo I. Nesse caso, temos uma crença falsa de uma verdade científica. Queremos apenas descobrir coisas realmente verdadeiras e, portanto, tenta-se reduzir ao mínimo as falsas descobertas, ou seja, controlamos um erro do tipo I. Não é tão difícil perceber que a probabilidade de um erro do tipo I é o nível de significância α escolhido . Portanto, para controlar erros do tipo I, corrige-se um αH1H0αα-nível refletindo sua vontade de aceitar '' falsas evidências ''.
Intuitivamente, isso significa que, se extrairmos um grande número de amostras e, com cada amostra, realizarmos o teste, uma fração desses testes levará a uma conclusão errada. É importante notar que estamos "calculando a média de muitas amostras" ; mesmo teste, muitas amostras. α
Se usarmos a mesma amostra para fazer muitos testes diferentes , teremos um erro de teste múltiplo (consulte o meu comentário sobre o limite de erro familiar: A reutilização de conjuntos de dados em diferentes estudos de perguntas independentes leva a vários problemas de teste? ). Nesse caso, pode-se controlar inflação α usando técnicas para controlar a taxa de erro familiar (FWER) , como, por exemplo, uma correção de Bonferroni.α
Uma abordagem diferente da FWER é controlar a taxa de falsas descobertas (FDR) . Nesse caso, controla-se o número de descobertas falsas (DF) entre todas as descobertas (D); portanto, controla-se , D é o número deH0rejeitado.FDDH0
Portanto, a probabilidade de erro do tipo I tem a ver com a execução do mesmo teste em muitas amostras diferentes. Para um grande número de amostras, a probabilidade de erro do tipo I convergirá para o número de amostras, levando a uma rejeição falsa dividida pelo número total de amostras coletadas .
O FDR tem a ver com muitos testes na mesma amostra e, para um grande número de testes, converge para o número de testes em que é cometido um erro do tipo I (ou seja, o número de descobertas falsas) dividido pelo número total de rejeições de (ou seja, o número total de descobertas)H0 .
Observe que, comparando os dois parágrafos acima:
- O contexto é diferente; um teste e muitas amostras versus muitos testes e uma amostra.
- O denominador para calcular a probabilidade de erro do tipo I é claramente diferente do denominador para calcular o FDR. Os numeradores são semelhantes, mas têm um contexto diferente.
O FDR diz a você que, se você executar muitos testes na mesma amostra e encontrar 1000 descobertas (ou seja, rejeições de ), com um FDR de 0,38, você terá 0,38 × 1000 descobertas falsas.H00.38×1000
The p – value represents the probability of making a type I error, or rejecting the null hypothesis when it is true
O valor p representa a probabilidade a priori de cometer um erro do tipo I, ou seja, de rejeitar a hipótese nula sob a premissa de que ela é verdadeira.