Vamos a sumar un flujo de variables aleatorias, ; dejemos que sea el número de términos que necesitamos para que el total exceda uno, es decir, es el número más pequeño tal queY Y
¿Por qué la media de son iguales a la constante de Euler ?e
Vamos a sumar un flujo de variables aleatorias, ; dejemos que sea el número de términos que necesitamos para que el total exceda uno, es decir, es el número más pequeño tal queY Y
¿Por qué la media de son iguales a la constante de Euler ?e
Respuestas:
Primera observación: tiene un CDF más agradable que PMF
La función de masa de probabilidad es la probabilidad de que sea "solo lo suficiente" para que el total exceda la unidad, es decir, excede uno, mientras que sí no.
La distribución acumulativa simplemente requiere que sea "suficiente", es decir, sin restricción en cuanto a cuánto. Esto parece un evento mucho más simple para tratar con la probabilidad de.
Segunda observación: toma valores enteros no negativos para que pueda escribirse en términos del CDF
Claramente sólo puede tomar valores en , por lo que podemos escribir su media en términos del CDF complementaria , .
De hecho, y son ambos cero, por lo que los dos primeros términos son .
En cuanto a los términos posteriores, si es la probabilidad de que , ¿de qué evento es la probabilidad de?
Tercera observación: el (hiper) volumen de un simple es 1
El -simplex que tengo en mente ocupa el volumen bajo una unidad estándar ( n - 1 ) -simplex en el todo-positivo ortante de R n : es la envolvente convexa de ( n + 1 ) vértices, en particular, el origen más los vértices de la unidad ( n - 1 ) -simplex en ( 1 , 0 , 0 , ... ) , ( 0 , 1 , 0 , ... etc.
Por ejemplo, el 2-simplex anterior con tiene área 1 y el 3-simplex conx1+x2+x3≤1tiene volumen1 .
Para obtener una prueba que procede evaluando directamente una integral para la probabilidad del evento descrito por , y enlaces a otros dos argumentos, vea este hilo Math SE . El hilo relacionado también puede ser de interés: ¿Existe una relación entre e y la suma de los volúmenes n -simplexes?
Fix . Sea U i = X 1 + X 2 + ⋯ + X i sea las partes fraccionarias de las sumas parciales para i = 1 , 2 , ... , n . La uniformidad independiente de X 1 y X i + 1 garantiza que U i + 1 es tan probable que exceda a U i como sea menor. Esto implica quetodos n !
Dada la secuencia , podemos recuperar la secuencia X 1 , X 2 , . Para ver cómo, note que
porque ambos están entre y 1 .
Si , entonces X i + 1 = U i .
De lo contrario, , de donde X i + 1 = U i + 1 .
Hay exactamente una secuencia en la que ya está en orden creciente, en cuyo caso 1 > U n = X 1 + X 2 + ⋯ + X n . Siendo uno de n ! secuencias igualmente probables, esto tiene una posibilidad de 1 / n ! de ocurrir. En todas las demás secuencias, al menos un paso de U i a U i + 1 está fuera de servicio. Esta es la suma de la X i tenía que ser igual o superior 1. Así vemos que
Esto produce las probabilidades para toda la distribución de , ya que para la integral n ≥ 1
Además,
QED
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
Modifying a bit the notation in the OP, and the minimum number of terms for , or expressed differently:
If instead we looked for:
We can apply the following general properties for continuous variables:
to express conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of , This would be it:
If the we are conditioning on is greater than , i.e. , If, on the other hand, , , because we already have drawn uniform random, and we still have the difference between and to cover. Going back to equation (1):
If we differentiate both sides of this equation, we can see that:
with one last integration we get:
We know that the expectation that drawing a sample from the uniform distribution and surpassing is , or . Hence, , and . Therefore