Eu li as respostas existentes no CrossValidated (além de outros locais on-line) e não consigo encontrar o que estou procurando, mas, por favor, aponte-me para as fontes existentes, caso as tenha perdido.
Digamos que eu tenho um conjunto de dados de N = 1000 registros, cada um dos quais pode ser amostrado manualmente e rotulado como 'Válido' ou 'Inválido' (ou Verdadeiro / Falso, Certo / Errado, etc.).
Desejo atingir um determinado nível de confiança de que todos os registros no conjunto de dados são válidos. Como exemplo de registros, se eu encontrar um único inválido, voltarei a alterar a forma como o conjunto de dados é criado para corrigir isso e problemas semelhantes.
Portanto, depois de algumas iterações para localizar Invalids, corrigir e recriar o conjunto de dados, faço algumas amostragens que incluem apenas registros válidos. Se eu quero ter (digamos) 99% ou 95% de certeza de que todos os registros são válidos, qual o tamanho da minha amostra? (Idealmente em função de N.)
Tentei brincar com os testes hipergeométricos ( http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test ) - nesse contexto, quero saber o que k deve ser, mas não tenho um valor fixo de K Em vez disso, quero escolher k de modo que K seja provavelmente igual a N - mas definir K = N obviamente resulta em uma probabilidade de 1! Também estou me perguntando se preciso usar uma abordagem bayesiana, mas não entendo as estatísticas bayesianas o suficiente.