Esto se puede responder utilizando la distribución geométrica de la siguiente manera:
El número de fallas k - 1 antes del primer éxito (caras) con una probabilidad de éxito p ("cabezas") viene dado por:
p(X=k)=(1−p)k−1p
siendo k el número total de lanzamientos, incluidas las primeras 'cabezas' que finalizan el experimento.
Y el valor esperado de X para una p dada es .1/p=2
La derivación del valor esperado se puede encontrar aquí . Los últimos pasos que quedan implícitos deben ser los siguientes:
para ser conectado a la expresión:ddr11−r=1(1−r)2
. Conr=1-p, se simplifica aE(X)=p1−p∑x=1∞x rx=p1−p r (ddr11−r)=p1−p r 1(1−r)2r=1−p
, justificando su uso arriba.]E(X)=1p
Alternativamente, podríamos usar la distribución binomial negativa interpretada como el número de fallas antes del primer éxito. La función de masa de probabilidad se da como p (número de fallas, n , antes de alcanzar r éxitos | dada una cierta probabilidad, p , de éxito en cada ensayo de Bernoulli):
p(n;r,p)=(n+r−1r−1)pr(1−p)n
La expectativa para el número de ensayos, n + r viene dada por la fórmula general
r(1−p)
Dados nuestros parámetros conocidos: r = 1 y p = 0.5 ,
E(n+r;1,0.5)=r1−p=11−0.5=2
Por lo tanto, podemos esperar hacer dos lanzamientos antes de obtener la primera cara con el número esperado de colas que es .E(n+r)−r=1
Podemos ejecutar una simulación de Monte Carlo para demostrarlo:
set.seed(1)
p <- 1/2
reps <- 10000 # Total number of simulations.
tosses_to_HEAD <- 0 # Setting up an empty vector to add output to.
for (i in 1:reps) {
head <- 0 # Set the variable 'head' to 0 with every loop.
counter <- 0 # Same forlocal variable 'counter'.
while (head == 0) {
head <- head + rbinom(1, 1, p) # Toss a coin and add to 'head'
counter <- counter + 1 # Add 1 to 'counter'
}
tosses_to_HEAD[i] <- counter # Append number in counter after getting heads.
}
mean(tosses_to_HEAD)
[1] 2.0097