Vamos resumir um fluxo de variáveis aleatórias, ; seja o número de termos que precisamos para que o total exceda um, ou seja, é o menor número que
Por que a média de igual a constante de Euler ?
Vamos resumir um fluxo de variáveis aleatórias, ; seja o número de termos que precisamos para que o total exceda um, ou seja, é o menor número que
Por que a média de igual a constante de Euler ?
Respostas:
Primeira observação: tem um CDF mais agradável que o PMF
A função de densidade de probabilidade é a probabilidade de que n é "apenas o suficiente" para o total a exceder unidade, isto é, X 1 + X 2 + ... X n excede uma enquanto X 1 + ⋯ + X n - 1 faz não.
A distribuição cumulativa requer simplesmente n é "suficiente", ou seja, Σ n i = 1 X i > 1 , sem restrição de como muito perto. Parece um evento muito mais simples de lidar com a probabilidade de.
Segunda observação: recebe valores inteiros não negativos, para que E ( Y ) possa ser escrito em termos de CDF
Claramente só pode assumir valores em { 0 , 1 , 2 , ... } , para que possamos escrever sua média em termos da CDF complementar , ˉ F Y .
De fato, e Pr ( Y = 1 ) são zero, então os dois primeiros termos são E ( Y ) = 1 + 1 + … .
Quanto aos termos posteriores, se é a probabilidade de ∑ n i = 1 X i > 1 , qual evento é ˉ F Y ( n ) a probabilidade de?
Terceira observação: o (hiper) volume de um simplex é 1
O -simplex eu ter em mente ocupa o volume debaixo de uma unidade padrão ( n - 1 ) -simplex no todo-positivo orthant de R n : é o casco convexo de ( n + 1 ) vértices, em particular, a origem mais os vértices da unidade ( n - 1 ) -simplex em ( 1 , 0 , 0 , … ) , ( 0 , 1 , 0 , … etc.
Por exemplo, o 2-simplex acima com tem a área 1 e o 3-simplex comx1+x2+x3≤1tem o volume1 .
Para uma prova que prossegue avaliando diretamente uma integral para a probabilidade do evento descrito por e vincula-se a dois outros argumentos, consulte este tópico do Math SE . O fio afins também podem ser de interesse: Existe uma relação entre e e a soma de n -simplexes volumes?
Corrija . Seja U i = X 1 + X 2 + ⋯ + X i são as partes fracionárias das somas parciais para i = 1 , 2 , … , n . A uniformidade independente de X 1 e X i + 1 garante que U i + 1 tem a probabilidade de exceder U i tanto quanto menor que ele. Isso implica quetodos os n ! ordenações da sequência ( U i ) são igualmente prováveis.
Dada a sequência , podemos recuperar a sequência X 1 , X 2 , … , X n . Para ver como, observe que
porque ambos estão entre 0 e 1 .
Se , então X i + 1 = U i + 1 - U i .
Caso contrário, , de onde X i + 1 = U i + 1 - U i + 1 .
Existe exactamente uma sequência em que o já estão em ordem crescente, no caso em que um > L n = X 1 + X 2 + ⋯ + X n . Sendo um dos n ! Seqüências igualmente prováveis, isso tem uma chance 1 / n ! de ocorrer. Em todas as outras seqüências, pelo menos um passo de U i a U i + 1 está fora de ordem. Isso implica que a soma do X que eu tinha que ser igual ou superior a 1. Assim, vemos que
Isso gera as probabilidades para toda a distribuição de , pois para a integral n ≥ 1
Além disso,
QED.
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
If instead we looked for:
We can apply the following general properties for continuous variables:
to express conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of , This would be it:
If the we are conditioning on is greater than , i.e. , If, on the other hand, , , because we already have drawn uniform random, and we still have the difference between and to cover. Going back to equation (1):
If we differentiate both sides of this equation, we can see that:
with one last integration we get:
We know that the expectation that drawing a sample from the uniform distribution and surpassing is , or . Hence, , and . Therefore