¿Con qué probabilidad una moneda es mejor que la otra?


8

Digamos que tenemos dos monedas sesgadas C1y C2ambas tienen diferentes probabilidades de girar la cabeza.

Lanzamos C1 n1tiempos y obtenemos H1cabezas, C2 n2tiempos y obtenemos H2cabezas. Y encontramos que la proporción de caras para una moneda es más alta que la otra.

¿Cuál es la probabilidad con la que podemos decir que una moneda es mejor que la otra? (mejor aquí significa mayor probabilidad real de girar la cabeza).


2
¿No es este un problema de prueba de hipótesis en el que tienes que probar si las estimaciones de probabilidad de que salgan caras para las monedas son diferentes?
ingenuo

3
Si desea una probabilidad de que una moneda sea mejor que otra, puede hacerlo con un enfoque bayesiano; todo lo que necesitas es una distribución previa de la probabilidad. Es un cálculo bastante sencillo.
Glen_b -Reinstate Monica

2
No hay forma de que estos datos te den una probabilidad de que una moneda sea mejor que la otra . Necesita información / supuestos adicionales sobre una distribución previa de cómo se distribuyen las monedas. Digamos que en un enfoque bayesiano, el resultado diferirá mucho en función de sus suposiciones anteriores. Por ejemplo, si esas monedas son monedas regulares de lo que son (a priori), es muy probable que sean iguales y necesitaría una gran cantidad de pruebas para encontrar una probabilidad decente de que una sea 'mejor' que la otra (porque la probabilidad es alta de que usted obtuvo dos monedas similares que prueban accidentalmente diferentes)
Sextus Empiricus

1
@katosh, es tan exacto como el anterior. Digamos que tiene monedas entre p = 0.49 y p = 0.51. Si en tal caso usa el supuesto de que las monedas son uniformemente distribuidas entre 0 y 1, entonces las probabilidades que asigna son más como supuestos incorrectos actualizados en lugar de probabilidades actualizadas. Con demasiada frecuencia asignará una alta probabilidad de ser 'mejor' a la moneda equivocada. Sería un error considerar el resultado como "la" probabilidad de que la moneda sea "mejor" que la otra. Datos incorrectos en = malos resultados fuera. En este problema no deberíamos trabajar en resolver las matemáticas sino en resolver el conocimiento.
Sextus Empiricus

1
De esa manera se afirma correctamente. Es un "creer" y esto no se equipara tan fácilmente a una "probabilidad".
Sextus Empiricus

Respuestas:


7

Es fácil calcular la probabilidad de hacer esa observación, dado el hecho de que las dos monedas son iguales. Esto puede hacerse mediante la prueba exacta de Fishers . Dadas estas observaciones

coin 1coin 2headsH1H2tailsn1H1n2H2

La probabilidad de observar estos números mientras las monedas son iguales dada la cantidad de intentos , y la cantidad total de es n1n2H1+H2

p(H1,H2|n1,n2,H1+H2)=(H1+H2)!(n1+n2H1H2)!n1!n2!H1!H2!(n1H1)!(n2H2)!(n1+n2)!.

Pero lo que está pidiendo es la probabilidad de que una moneda sea mejor. Dado que discutimos acerca de una creencia sobre cuán sesgadas están las monedas, tenemos que usar un enfoque bayesiano para calcular el resultado. Tenga en cuenta que en la inferencia bayesiana el término creencia se modela como probabilidad y los dos términos se usan indistintamente (s. Probabilidad bayesiana ). Llamamos a la probabilidad de que la moneda arroje . La distribución posterior después de la observación, para este está dada por teorema de Bayes : El función de densidad de probabilidad (pdf)ipipi

f(pi|Hi,ni)=f(Hi|pi,ni)f(pi)f(ni,Hi)
f(Hi|pi,ni)está dada por la probabilidad Binomial, ya que los intentos individuales son experimentos de Bernoulli: I Asumo El conocimiento previo sobre es que podría estar entre y con igual probabilidad, por lo tanto . Entonces el nominador es .
f(Hi|pi,ni)=(niHi)piHi(1pi)niHi
f(pi)pi01f(pi)=1f(Hi|pi,ni)f(pi)=f(Hi|pi,ni)

Para calcular usamos el hecho de que la integral sobre un pdf tiene que ser uno . Entonces el denominador será un factor constante para lograr eso. Existe un pdf conocido que difiere del nominador solo por un factor constante, que es la distribución beta . Por lo tanto, f(ni,Hi)01f(p|Hi,ni)dp=1

f(pi|Hi,ni)=1B(Hi+1,niHi+1)piHi(1pi)niHi.

El pdf para el par de probabilidades de monedas independientes es

f(p1,p2|H1,n1,H2,n2)=f(p1|H1,n1)f(p2|H2,n2).

Ahora necesitamos integrar esto en los casos en que para descubrir cómo es probable que la moneda sea ​​mejor que la moneda : p1>p212

P(p1>p2)=010p1f(p1,p2|H1,n1,H2,n2)dp2dp1=01B(p1;H2+1,n2H2+1)B(H2+1,n2H2+1)f(p1|H1,n1)dp1

No puedo resolver esta última integral analíticamente, pero uno puede resolverla numéricamente con una computadora después de conectar los números. es la función beta y es la función beta incompleta. Tenga en cuenta que porque es una variable continua y nunca es exactamente lo mismo que .B(,)B(;,)P(p1=p2)=0p1p2


Con respecto a la suposición anterior sobre y sus comentarios: Una buena alternativa para modelar muchos cree es usar una distribución beta . Esto llevaría a una probabilidad final De esa manera, uno podría modelar un fuerte sesgo hacia las monedas regulares por grandes pero iguales , . Sería equivalente a lanzar la moneda veces adicionales y recibir , por lo tanto, equivale a tener más datos. es la cantidad de lanzamientos que no tendríamos que hacerf(pi)Beta(ai+1,bi+1)

P(p1>p2)=01B(p1;H2+1+a2,n2H2+1+b2)B(H2+1+a2,n2H2+1+b2)f(p1|H1+a1,n1+a1+b1)dp1.
aibiai+biaiai+bi si incluimos esto antes.

El OP declaró que las dos monedas están sesgadas en un grado desconocido. Entonces entendí que todo el conocimiento tiene que inferirse de las observaciones. Es por eso que opté por un poco informativo antes de que la dosis no sesgue el resultado, por ejemplo, hacia las monedas normales.

Toda la información se puede transmitir en forma de por moneda. La falta de un previo informativo solo significa que se necesitan más observaciones para decidir qué moneda es mejor con alta probabilidad.(Hi,ni)


Aquí está el código en R que proporciona una función usando el uniforme anterior : P(n1, H1, n2, H2) =P(p1>p2)f(pi)=1

mp <- function(p1, n1, H1, n2, H2) {
    f1 <- pbeta(p1, H2 + 1, n2 - H2 + 1)
    f2 <- dbeta(p1, H1 + 1, n1 - H1 + 1)
    return(f1 * f2)
}

P <- function(n1, H1, n2, H2) {
    return(integrate(mp, 0, 1, n1, H1, n2, H2))
}

Puede dibujar para diferentes resultados experimentales y , , ejemplo, con este código franqueado:P(p1>p2)n1n2n1=n2=4

library(lattice)
n1 <- 4
n2 <- 4
heads <- expand.grid(H1 = 0:n1, H2 = 0:n2)
heads$P <- apply(heads, 1, function(H) P(n1, H[1], n2, H[2])$value)
levelplot(P ~ H1 + H2, heads, main = "P(p1 > p2)")

P (p1> p2) para n1 = n2 = 4

Es posible que necesite install.packages("lattice")primero.

Se puede ver que, incluso con el uniforme anterior y un tamaño de muestra pequeño, la probabilidad o creer que una moneda es mejor puede volverse bastante sólida, cuando y difieren lo suficiente. Se necesita una diferencia relativa aún menor si y son aún mayores. Aquí hay una gráfica para y :H1H2n1n2n1=100n2=200

ingrese la descripción de la imagen aquí


Martijn Weterings sugirió calcular la distribución de probabilidad posterior para la diferencia entre y . Esto se puede hacer integrando el pdf del par sobre el conjunto : p1p2S(d)={(p1,p2)[0,1]2|d=|p1p2|}

f(d|H1,n1,H2,n2)=S(d)f(p1,p2|H1,n1,H2,n2)dγ=01df(p,p+d|H1,n1,H2,n2)dp+d1f(p,pd|H1,n1,H2,n2)dp

De nuevo, no es una integral que pueda resolver analíticamente, pero el código R sería:

d1 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p + d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

d2 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p - d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

fd <- function(d, n1, H1, n2, H2) {
    if (d==1) return(0)
    s1 <- integrate(d1, 0, 1-d, d, n1, H1, n2, H2)
    s2 <- integrate(d2, d, 1, d, n1, H1, n2, H2)
    return(s1$value + s2$value)
}

He trazado para , , y todos los valores de :f(d|n1,H1,n2,H2)n1=4H1=3n2=4H2

n1 <- 4
n2 <- 4
H1 <- 3
d <- seq(0, 1, length = 500)

get_f <- function(H2) sapply(d, fd, n1, H1, n2, H2)
dat <- sapply(0:n2, get_f)

matplot(d, dat, type = "l", ylab = "Density",
        main = "f(d | 4, 3, 4, H2)")
legend("topright", legend = paste("H2 =", 0:n2),
       col = 1:(n2 + 1), pch = "-")

ingrese la descripción de la imagen aquí

Puede calcular la probabilidad deestar por encima de un valor por . Tenga en cuenta que la doble aplicación de la integral numérica viene con algún error numérico. Por ejemplo , siempre debe ser igual a ya que siempre toma un valor entre y . Pero el resultado a menudo se desvía ligeramente.|p1p2|dintegrate(fd, d, 1, n1, H1, n2, H2)integrate(fd, 0, 1, n1, H1, n2, H2)1d01


No sé el valor real de p1
Thirupathi Thangavel

1
Lamento mi mala notación 😅 pero no es necesario que ingrese un valor fijo para . El (ahora cambiado) en la integral es la variable sobre la que integra. Al igual que puede integrar sin tener un valor fijo para . p1p101x2dxx
katosh

1
La prueba exacta de Fisher es más específicamente sobre la hipótesis de que las monedas tienen la misma probabilidad y los totales marginales son fijos . Este no es el caso en este problema de monedas. Si vuelve a hacer la prueba, podría observar alguna otra cantidad total de cabezas.
Sextus Empiricus el

@MartijnWeterings en mi caso, la probabilidad de girar la cabeza para una moneda siempre está fija. ¿No es eso suficiente?
Thirupathi Thangavel

1
@ThirupathiThangavel el problema con la prueba de Fisher es sobre los totales marginales no fijos. El modelo de prueba exacto supone que la probabilidad de que las cabezas sean iguales y fijas, pero también se fijan los márgenes antes del experimento. Esa segunda parte no es el caso. Esto da una probabilidad condicional diferente para valores extremos. En general, la prueba de Fisher será conservadora. La probabilidad del resultado dada la hipótesis VERDADERA (es decir, probabilidad fija y similar para cabezas, pero no necesariamente totales marginales fijos) es menor que la calculada (se obtienen valores p más altos).
Sextus Empiricus

2

He hecho una simulación numérica con R, probablemente estás buscando una respuesta analítica, pero pensé que esto podría ser interesante para compartir.

set.seed(123)
# coin 1
N1 = 20
theta1 = 0.7

toss1 <- rbinom(n = N1, size = 1, prob = theta1)

# coin 2
N2 = 25
theta2 = 0.5

toss2 <- rbinom(n = N2, size = 1, prob = theta2)

# frequency
sum(toss1)/N1 # [1] 0.65
sum(toss2)/N2 # [1] 0.52

En este primer código, simplemente simulo dos lanzamientos de monedas. Aquí puede ver, por supuesto, que theta1 > theta2, entonces, por supuesto, la frecuencia de H1será mayor que H2. Tenga en cuenta el diferente N1, N2tamaños.

Veamos qué podemos hacer con diferentes thetas. Tenga en cuenta que el código no es óptimo. En absoluto.

simulation <- function(N1, N2, theta1, theta2, nsim = 100) {
  count1 <- count2 <- 0

  for (i in 1:nsim) {
    toss1 <- rbinom(n = N1, size = 1, prob = theta1)
    toss2 <- rbinom(n = N2, size = 1, prob = theta2)

    if (sum(toss1)/N1 > sum(toss2)/N2) {count1 = count1 + 1} 
    #if (sum(toss1)/N1 < sum(toss2)/N2) {count2 = count2 + 1} 
  }

  count1/nsim

}
set.seed(123)
simulation(20, 25, 0.7, 0.5, 100)
#[1] 0.93

Entonces, 0.93 es la frecuencia de veces (de un 100) que la primera moneda tenía más caras. Esto parece estar bien, mirando theta1y theta2usado.

Veamos con dos vectores de thetas.

theta1_v <- seq(from = 0.1, to = 0.9, by = 0.1)
theta2_v <- seq(from = 0.9, to = 0.1, by = -0.1)

res_v <- c()
for (i in 1:length(theta1_v)) {

  res <- simulation(1000, 1500, theta1_v[i], theta2_v[i], 100)
  res_v[i] <- res

}

plot(theta1_v, res_v, type = "l")

Recuerde que res_vson las frecuencias donde H1 > H2, de 100 simulaciones.

ingrese la descripción de la imagen aquí

Entonces, a medida que theta1aumenta, la probabilidad de H1ser mayor aumenta, por supuesto.

He hecho algunas otras simulaciones y parece que los tamaños N1, N2son menos importantes.

Si está familiarizado R, puede usar este código para arrojar algo de luz sobre el problema. Soy consciente de que este no es un análisis completo, y se puede mejorar.


2
Interesante cómo res_vcambia continuamente cuando las thetas se encuentran. Entendí la pregunta, ya que se trataba del sesgo intrínseco de las monedas después de hacer una sola observación. Parece responder a las observaciones que uno haría después de conocer el sesgo.
katosh
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.