Um webinar outro dia, realizado por uma empresa de testes a / b, solicitou que o "Data Scientist" residente explicasse que você deveria validar seus resultados executando novamente o experimento. A premissa era que, se você selecionar 95% de confiança, há 5% (1/20) de chance de um falso positivo. Se você repetir sua experiência com as mesmas restrições, agora há 1/400 (suponho que eles determinaram isso como 0,05 ^ 2 = 1/400)
Esta declaração é válida? (ou seja, "execute duas vezes, duas vitórias de significância estatística = 1/400 de probabilidade de falso positivo")? Teria sido uma abordagem melhor para aumentar seu nível de significância?
Do ponto de vista comercial, a preocupação que tenho é reexecutando o experimento, você está expondo mais usuários a uma página inferior (tratamento) e, assim, perdendo vendas em potencial.