Suponha que eu tenha dados de uma certa quantidade , dados por . Agora, eu pego o primeiro dígito de cada quantidade e quero estudar a relação entre a distribuição empírica dos primeiros dígitos onde é a frequência normal de ocorrência de como o primeiro dígito, e a lei de benford Agora, eu li este artigo
Eu acho que esses métodos podem ser aplicados à comparação em tempo real com a lei de Benford da seguinte maneira: dado um intervalo (pequeno) de tempo (digamos, 3 segundos), calculamos as freqüências empíricas dos primeiros dígitos e, em seguida, calculamos os intervalos de confiança simultâneos e os valores das estatísticas mostradas na referência mencionada anteriormente (temos que ter um tamanho de amostra de, pelo menos, 60 de dados, de modo que a distribuição das estatísticas deve ser relativamente perto das distribuições assimptóticas, de modo que os computados -Valores deve ser fiável).
Minha pergunta é: esse procedimento é válido? Isso faz sentido? Caso contrário, existe algum método sólido para comparar a distribuição empírica dos primeiros dígitos com a lei de benford em tempo real?
Um problema em potencial que vejo é que a distribuição subjacente dos primeiros dígitos pode mudar em uma determinada janela de tempo (talvez até mais de uma vez). É por isso que eu acho uma boa idéia usar janelas de tempo relativamente pequenas, para ter um tamanho de amostra decente, enquanto reduz as chances de que a distribuição subjacente dos primeiros dígitos possa mudar.