¿De dónde viene la distribución beta?


13

Como estoy seguro de que todos aquí ya lo saben, el PDF de la distribución Beta está dado porXsi(un,si)

F(X)=1si(un,si)Xun-1(1-X)si-1

He estado buscando por todo el lugar una explicación de los orígenes de esta fórmula, pero no puedo encontrarla. Todos los artículos que he encontrado en la distribución Beta parecen dar esta fórmula, ilustran algunas de sus formas, luego continúan discutiendo sus momentos y desde allí.

No me gusta usar fórmulas matemáticas que no puedo derivar y explicar. Para otras distribuciones (por ejemplo, el gamma o el binomio) hay una clara derivación que puedo aprender y usar. Pero no puedo encontrar algo así para la distribución Beta.

Entonces mi pregunta es: ¿cuáles son los orígenes de esta fórmula? ¿Cómo puede derivarse de los primeros principios en cualquier contexto en el que se desarrolló originalmente?

[Para aclarar, no estoy preguntando cómo usar la distribución Beta en las estadísticas bayesianas, o qué significa intuitivamente en la práctica (he leído el ejemplo del béisbol). Solo quiero saber cómo derivar el PDF. Hubo una pregunta anterior que preguntaba algo similar, pero se marcó (creo que incorrectamente) como un duplicado de otra pregunta que no abordó el problema, por lo que no he podido encontrar ayuda aquí hasta ahora.]

EDITAR 2017-05-06: Gracias a todos por las preguntas. Creo que una buena explicación de lo que quiero proviene de una de las respuestas que obtuve cuando le pregunté a algunos de mis instructores del curso:

"Supongo que las personas podrían derivar la densidad normal como un límite de una suma de n cosas divididas por sqrt (n), y usted puede derivar la densidad de Poisson a partir de la idea de que los eventos ocurran a una velocidad constante. Del mismo modo, para derivar el densidad beta, tendrías que tener una idea de lo que hace que una distribución beta sea independiente y lógicamente anterior a la densidad ".

Entonces, la idea "ab initio" en los comentarios es probablemente la más cercana a lo que estoy buscando. No soy matemático, pero me siento más cómodo usando las matemáticas que puedo obtener. Si los orígenes son demasiado avanzados para que yo pueda manejarlos, que así sea, pero si no, me gustaría entenderlos.


55
¿Derivado de qué? Si el enfoque binomial-conjugado-anterior no es aceptable, hay varias alternativas aquí (por ejemplo, estadísticas de orden de una variable aleatoria uniforme, proporciones de variables Gamma).
GeoMatt22

3
Nota: ¡toda la historia de la distribución Beta se proporciona en la increíble página de Wikipedia en esta distribución, que contiene casi todos los detalles posibles!
Xi'an

1
La pregunta anterior se marcó como un duplicado de la otra después de que el OP aclaró lo que buscaban en un comentario. whuber hizo la misma pregunta allí que @ Geomatt22 hace aquí: "Una derivación significa una conexión lógica de algo asumido a algo por establecerse. ¿Qué quieres asumir ?"
Scortchi - Restablece a Monica

2
@Aksakal, pero la pregunta es demasiado amplia: puede derivarse de muchas maneras; si tiene razón, lo cerraré como demasiado amplio hasta que la pregunta se reduzca lo suficiente como para ser algo más que una bolsa de respuestas posibles
Glen_b: reinstale a Monica

3
Aquí hay una breve discusión de un pequeño contexto histórico (al menos en términos de su relación con la función beta incompleta). Tiene conexiones con la distribución gamma y muchas, muchas otras distribuciones además y surge de manera bastante razonable de varias maneras diferentes; Como señala Xi'an, también tiene orígenes históricos en el sistema Pearson . ¿Qué tipo de respuesta estás buscando aquí? ¿Qué se da / qué se debe derivar?
Glen_b: reinstala a Monica

Respuestas:


6

Como ex físico, puedo ver cómo podría haberse derivado. Así es como proceden los físicos:

cuando encuentran una integral finita de una función positiva, como la función beta : definen instintivamente una densidad: dondef ( s | x , y ) = s x - 1 ( 1 - s ) y - 1

B(x,y)=01tx1(1t)y1dt
0<s<1
F(sEl |X,y)=sX-1(1-s)y-10 01tX-1(1-t)y-1ret=sX-1(1-s)y-1si(X,y),
0 0<s<1

Le hacen esto a todo tipo de integrales todo el tiempo con tanta frecuencia que ocurre de forma reflexiva sin siquiera pensar. Llaman a este procedimiento "normalización" o nombres similares. Observe cómo, por definición, trivialmente la densidad tiene todas las propiedades que desea que tenga, como siempre positiva y suma una.

La densidad que di arriba es de distribución Beta.F(t)

ACTUALIZAR

@ whuber pregunta qué tiene de especial la distribución Beta, mientras que la lógica anterior podría aplicarse a un número infinito de integrales adecuadas (como señalé en mi respuesta anterior).

La parte especial proviene de la distribución binomial . Escribiré su PDF usando una notación similar a mi beta, no la notación habitual para parámetros y variables:

F(X,yEl |s)=(y+XX)sX(1-s)y

Aquí, - número de éxitos y fracasos, y - probabilidad de éxito. Puede ver cómo esto es muy similar al numerador en la distribución Beta. De hecho, si busca la distribución Binomial anterior, será la distribución Beta. No es sorprendente también porque el dominio de Beta es 0 a 1, y eso es lo que haces en el teorema de Bayes: integrar sobre el parámetro , que es la probabilidad de éxito en este caso como se muestra a continuación: aquí - probabilidad (densidad) de probabilidad de éxito dada la configuración previa de la distribución Beta ys s f ( x | X ) = f ' ( X | s ) f ( s )x,yssf(s)f(X|s)s

f^(x|X)=f(X|s)f(s)01f(X|s)f(s)ds,
f(s)f(X|s)- densidad de este conjunto de datos (es decir, éxitos y fracasos observados) dada una probabilidad .s

1
@ Xi'an OP no parece estar interesado en la historia.
Aksakal

1
"La explicación de los orígenes de esta fórmula ... en cualquier contexto en el que se desarrolló originalmente" me suena a historia :-).
whuber

3
Creo que uno puede estar interesado tanto en la historia como en los primeros principios al mismo tiempo. :-) Aunque su respuesta es matemáticamente correcta, desafortunadamente es demasiado general: se puede hacer una densidad de cualquier función no negativa con integral finita. Entonces, ¿qué tiene de especial esta familia particular de distribuciones? Como tal, su enfoque no parece satisfacer ninguno de los puntos de vista.
whuber

2
@WillBradshaw, sí. Normalmente, consideramos la distribución binomial en función del número de fallas (o éxitos) dada la probabilidad y el número de ensayos como parámetros. De esta manera es una distribución discreta . Sin embargo, si lo ve como una función de probabilidades dado el número de éxitos y fracasos como parámetros, entonces se convierte en distribución Beta una vez que lo vuelve a escalar, una distribución continua , por cierto.
Aksakal

2
El artículo de Wikipedia sobre la distribución Beta lo rastrea hasta Karl Pearson, exactamente como lo sugiere @ Xi'an. Stigler, en su Historia de la estadística: la medición de la incertidumbre antes de 1900 , da una breve descripción de la derivación de Pearson utilizando la notación moderna.
whuber

15

ingrese la descripción de la imagen aquí

Thomas Bayes (1763) derivó la distribución Beta [sin usar este nombre] como el primer ejemplo de distribución posterior , anterior al trabajo de Leonhard Euler (1766) sobre la integral Beta señalado por Glen_b por unos años, pero la integral también aparece en Euler (1729 o 1738) [Opera Omnia, I14, 1 {24] como una forma de generalizar la función factorial que puede ser la razón por la normalización Beta constante también se llama la función Euler . DaviesB ( a , b ) -B(a,b)Menciona Wallis (1616-1703), Newton (1642-1726) y Stirling (1692-1770) que tratan casos especiales de la integral incluso antes. Karl Pearson (1895) catalogó por primera vez esta familia de distribuciones como Pearson Tipo I .


Aunque históricamente no apareció en ese orden, una entrada intuitiva a la distribución Beta es a través de la distribución Fisher , que corresponde a la distribución de una relación donde deliberadamente las anotaciones habituales para estimadores de varianza, ya que así es como esta distribución apareció y estaba motivado, para probar la igualdad de dos variaciones. Entonces mientras que, por el contrario, si , entonces Encontrar la densidad de aF(p,q)

ϱ=σ^12/ /σ^22pagσ^12χpag2qσ^12χq2
pagϱq+pagϱsi(pag/ /2,q/ /2)
ωsi(un,si)
ω/ /un(1-ω)/ /siF(2un,2si)
si(un,si)Por lo tanto, la distribución es un cambio de paso variable: a partir de la densidad de una distribución , y considerando el cambio de la variable que se invierte en el jacobiano es conduce a la densidad de la transformación [donde todas las constantes de normalización se obtienen imponiendo que la densidad se integre a una.F(pag,q)
fp,q(x){px/q}p/21(1+px/q)(p+q)/2
y={px/q}{1+px/q}y(0,1)
x=qyp(1y)
dxdy=qp(1y)+qyp(1y)2=pq(1y)2
g(y)yp/21(1y)q/2+1(1y)2=yp/21(1y)q/2+1

2
+1. Vale la pena señalar que K. Pearson no simplemente "catalogó" las distribuciones Beta: las derivó a través de soluciones de una familia de ecuaciones diferenciales inspiradas en una relación que observó entre las ecuaciones de diferencia para el Binomial y las ecuaciones diferenciales para la distribución Normal. La generalización de la ecuación de diferencia binomial a la distribución hipergeométrica produjo una generalización de la ecuación diferencial, cuyas soluciones incluyeron las distribuciones Beta "Tipo I" y "Tipo II". Este es precisamente el tipo de derivación ab initio que el OP parece estar buscando.
whuber

2
Creo que puedo aprender mucho estudiando esta respuesta. Es demasiado avanzado para mí en este momento, pero cuando tenga tiempo volveré e investigaré los temas que mencionas, luego intentaré de nuevo entenderlo. Muchas gracias. :)
Will Bradshaw

1

En primer lugar, no soy bueno en descripciones matemáticamente precisas de conceptos en mi cabeza, pero haré lo mejor que pueda con un ejemplo simple:

Imagina que tienes un arco, muchas flechas y un objetivo. Digamos además que su índice de aciertos (para alcanzar el objetivo) es precisamente una función de la distancia al centro del objetivo y de la siguiente forma donde x es la distancia al centro del objetivo ( ). Para esto sería una aproximación de primer orden de un gaussiano. Eso significaría que con mayor frecuencia le das al blanco. Del mismo modo, se aproxima a cualquier curva en forma de campana, por ejemplo, resultante de la difusión de partículas brownianas.λ

λ=g(x)=λmax(q|xx0|)1q, q>0, 0λλmax
x0q=1/ /2

Ahora, supongamos además que alguien realmente valiente / estúpido intenta engañarte y desplaza al objetivo en cada disparo. De este modo, hacemos que sea ​​una variable aleatoria. Si la distribución de los movimientos de esa persona puede describirse mediante una potencia (p-1) de (es decir, ), un simple La transformación de variables aleatorias (recuerde ) conduce a una Beta distribuida :X0 0sol(X)PAG(X0 0)=Csol(X)pag-1)PAG(λ)reλ=PAG(X0 0)reX0 0λ

PAG(λ)=PAG(sol-1(λ))El |resol-1(λ)reλEl |=Cλpag-1(λmetrounX-λ)q-1

donde la constante de normalización es la función beta. Para la parametrización estándar de la distribución beta, estableceríamos .CλmetrounX=1

En otras palabras, la distribución beta puede verse como la distribución de probabilidades en el centro de una distribución fluctuada.

Espero que esta derivación se acerque un poco a lo que su instructor quiso decir. Tenga en cuenta que las formas funcionales de y son muy flexibles y se extienden desde distribuciones en forma de triángulos y distribuciones en forma de U (ver ejemplo a continuación) hasta distribuciones puntiagudas.sol(X)PAG(X0 0)

FYI: descubrí esto como un efecto secundario en mi trabajo de doctorado y lo informé en mi tesis en el contexto de las curvas de sintonización neural no estacionarias que conducen a distribuciones de recuento de picos inflados a cero (bimodal con un modo en cero). La aplicación del concepto descrito anteriormente produjo la distribución de la mezcla Beta-Poisson para la actividad neuronal. Esa distribución puede ajustarse a los datos. Los parámetros ajustados permiten estimar tanto la distribución como la distribución jitter aplicando las lógicas inversas. La mezcla Beta-Poisson es una alternativa muy interesante y flexible a la distribución binomial negativa ampliamente utilizada (que es una mezcla Gamma-Poisson) para modelar la sobredispersión. A continuación encontrará un ejemplo de "Jittersol(X)pag(X0 0) Beta "- idea en acción:

Un modelo de nerviosismo que conduce al modelo de picos Beta-Poisson.

A : desplazamiento de prueba 1D simulado, extraído de la distribución de jitter en el recuadro ( ). El campo de disparo promediado de prueba (línea negra continua) es más amplio y tiene una tasa de pico más baja en comparación con la curva de sintonización subyacente sin fluctuación (línea azul continua, parámetros utilizados: . B : La distribución resultante de en en N = 100 ensayos y el pdf analítico de la distribución Beta. C : Distribución simulada de recuento de picos de un proceso de Poisson con parámetros donde los índices de los ensayos y la distribución resultante de Beta-Poisson derivada como se bosquejó anteriormente.PAG(jyottmir)sol(X)pag-1λmetrounX=10,pag=.6,q=.5λx0λiD : Situación análoga en 2D con ángulos de desplazamiento aleatorios que conducen a estadísticas idénticas.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.