Isso pode ser respondido usando a distribuição geométrica da seguinte maneira:
O número de falhas k - 1 antes do primeiro sucesso (cabeças) com probabilidade de sucesso p ("cabeças") é dado por:
p(X=k)=(1−p)k−1p
sendo k o número total de lançamentos, incluindo as primeiras 'cabeças' que terminam o experimento.
E o valor esperado de X para um dado p é .1/p=2
A derivação do valor esperado pode ser encontrada aqui . Os últimos passos implícitos devem ser os seguintes:
a ser plugado na expressão:ddr11 - r= 1( 1 - r )2
. Comr=1-p, simplifica paraE(X)=p1−p∑x=1∞x rx=p1−p r (ddr11−r)=p1−p r 1(1−r)2r=1−p
, justificando a sua utilização acima].E(X)=1p
Como alternativa, poderíamos usar a distribuição binomial negativa interpretada como o número de falhas antes do primeiro sucesso. A função de massa de probabilidade é dada como p (número de falhas, n , antes de atingir r sucessos | dada uma certa probabilidade, p , de sucesso em cada teste de Bernoulli):
p ( n ; r , p ) = ( n + r - 1r - 1) pr( 1 - p )n
A expectativa para o número de tentativas, n + r, é dada pela fórmula geral:
r( 1 - p )
Dadas as nossas conhecidas parâmetros: r = 1 e p = 0,5 ,
E( n + r ; 1 , 0,5 ) = r1−p=11−0.5=2
Portanto, podemos esperar fazer dois lançamentos antes de começar a primeira cabeça, com o número esperado de caudas sendo .E(n+r)−r=1
Podemos executar uma simulação de Monte Carlo para provar:
set.seed(1)
p <- 1/2
reps <- 10000 # Total number of simulations.
tosses_to_HEAD <- 0 # Setting up an empty vector to add output to.
for (i in 1:reps) {
head <- 0 # Set the variable 'head' to 0 with every loop.
counter <- 0 # Same forlocal variable 'counter'.
while (head == 0) {
head <- head + rbinom(1, 1, p) # Toss a coin and add to 'head'
counter <- counter + 1 # Add 1 to 'counter'
}
tosses_to_HEAD[i] <- counter # Append number in counter after getting heads.
}
mean(tosses_to_HEAD)
[1] 2.0097