¿Ejemplo de una distribución discreta no negativa donde la media (u otro momento) no existe?


20

Estaba haciendo algo de trabajo en scipy y surgió una conversación con un miembro del grupo central scipy si una variable aleatoria discreta no negativa puede tener un momento indefinido. Creo que tiene razón, pero no tengo una prueba a mano. ¿Alguien puede mostrar / probar este reclamo? (o si esta afirmación no es verdadera refutar)

No tengo un ejemplo a mano si la variable aleatoria discreta tiene soporte en Z pero parece que alguna versión discreta de la distribución de Cauchy debería servir como ejemplo para obtener un momento indefinido. La condición de no negatividad (quizás incluyendo 0 ) es lo que parece hacer que el problema sea desafiante (al menos para mí).

Respuestas:


15

Deje que el CDF F igual a 11/n en los enteros n=1,2,, constante por partes en todas partes, y sujeto a todos los criterios para ser un CDF. La expectativa es

0(1F(x))dx=1/2+1/3+1/4+

que diverge En este sentido, el primer momento (y, por lo tanto, todos los momentos superiores) es infinito. (Véanse las observaciones al final para más detalles).


Si no se siente cómodo con esta notación, tenga en cuenta que para n=1,2,3,,

PrF(n)=1n1n+1.

Esto define una distribución de probabilidad ya que cada término es positivo y

n=1PrF(n)=n=1(1n1n+1)=limn11n+1=1.

La expectativa es

n=1nPrF(n)=n=1n(1n1n+1)=n=11n+1=1/2+1/3+1/4+

que diverge

Esta forma de expresar la respuesta deja en claro que todas las soluciones se obtienen mediante series tan divergentes. De hecho, si desea que la distribución se apoye en algún subconjunto de los valores positivos con probabilidades sumando a la unidad, entonces la expectativa de divergir la serie que lo expresa, a saberx1,x2,,xn,,p1,p2,

(an)=(xnpn),

debe tener sumas parciales divergentes.

Por el contrario, cada serie divergente de números no negativos está asociada con muchas distribuciones positivas discretas que tienen expectativas divergentes. (an) Por ejemplo, dado podría aplicar el siguiente algoritmo para determinar las secuencias y . Comience configurando e para Defina como el conjunto de todos que surgen de esta manera, indexe sus elementos como y defina una distribución de probabilidad en por(an)(xn)(pn)qn=2nyn=2nann=1,2,.ΩynΩ={ω1,ω2,,ωi,},Ω

Pr(ωi)=nyn=ωiqn.

Esto funciona porque la suma de es igual a la suma de que es y tiene como máximo un número contable de elementos positivos.pnqn,1,Ω

Como ejemplo, la serie obviamente diverge. El algoritmo da(an)=(1,1/2,1,1/2,)

y1=2a1=2; y2=22a2=2; y3=23a3=8;

Así

Ω={2,8,32,128,,22n+1,}

es el conjunto de potencias positivas impares de y2

p1=q1+q2=3/4; p2=q3+q4=3/16; p3=q5+q6=3/64;


Sobre momentos infinitos e inexistentes

Cuando todos los valores son positivos, no existe un momento "indefinido": todos los momentos existen, pero pueden ser infinitos en el sentido de una suma divergente (o integral), como se muestra al comienzo de esta respuesta.

En general, todos los momentos se definen para variables aleatorias positivas, porque la suma o integral que los expresa converge absolutamente o diverge (es "infinito"). En contraste, los momentos pueden volverse indefinidos para las variables que toman valores positivos y negativos. , porque, por definición de la integral de Lebesgue, el momento es la diferencia entre un momento de la parte positiva y un momento del valor absoluto de la parte negativa. Si ambos son infinitos, la convergencia no es absoluta y enfrenta el problema de restar un infinito de un infinito: eso no existe.


¿Este argumento da un ejemplo de un momento infinito o un momento indefinido? Estoy buscando un momento indefinido. Tal vez haya una sutileza de momentos indefinidos versus infinitos que me estoy perdiendo para comprender completamente su respuesta.
Lucas Roberts

2
Cuando todos los valores son positivos, no existe un momento "indefinido": todos los momentos existen, pero pueden ser infinitos.
whuber

44
Todos los momentos se definen para variables aleatorias positivas. Algunos pueden ser infinitos, eso es todo. Los momentos pueden quedar indefinidos para las variables que toman valores positivos y negativos, porque, por definición de la integral de Lebesgue, el momento es la diferencia entre un momento de la parte positiva y un momento del valor absoluto de la parte negativa. Si ambos son infinitos, enfrenta el problema de restar un infinito de un infinito: eso no existe.
whuber

1
"Todos los momentos están definidos para variables aleatorias positivas. Algunos pueden ser infinitos, eso es todo". Dado que el título de la pregunta se refiere a momentos que no existen , ¡creo que gran parte de este comentario merece ser editado en la respuesta!
Silverfish

1
Creo que podría haber encontrado la respuesta enterrada en esta publicación: stats.stackexchange.com/questions/243150/…
Lucas Roberts

39

Aquí hay un ejemplo famoso: Sea valor con probabilidad , para cada entero . Entonces toma valores en (un subconjunto de) los enteros positivos; la masa total es , pero su expectativa es Esta variable aleatoria surge en la paradoja de San Petersburgo .X2k2kk1Xk=12k=1

E(X)=k=12kP(X=2k)=k=11=.
X

66
+1 Me gusta este por sus conexiones históricas y filosóficas.
whuber

Resolución de la paradoja: si ganas ∞ te aplastan las fuerzas G.
Joshua

8
  1. La distribución zeta es una distribución discreta bastante conocida en los enteros positivos que no tiene una media finita (para ).1<θ2

    P(X=x|θ)=1ζ(θ)xθ,x=1,2,...,θ>1

    donde la constante de normalización involucra , la función zeta de Riemannζ()

    (editar: El caso es muy similar a la respuesta de whuber)θ=2

    Otra distribución con comportamiento de cola similar es la distribución de Yule-Simon .

  2. Otro ejemplo sería la distribución binomial beta negativa con :0<α1

    P(X=x|α,β,r)=Γ(r+x)x!Γ(r)B(α+r,β+x)B(α,β),x=0,1,2...α,β,r>0


0

alguna versión discreta de la distribución Cauchy

Sí, si toma como el valor promedio de la distribución de Cauchy en el intervalo alrededor de , entonces claramente su momento cero es el mismo que el de la distribución de Cauchy, y su primer momento se acerca asintóticamente al primer momento de la distribución. Distribución de Cauchy. En cuanto al "intervalo alrededor de ", realmente no importa cómo se defina eso; tomar , , , vel cetera , y funcionará. Para enteros positivos, también puede tomar . El momento cero suma uno, y el primer momento es la suma de , que diverge.p(n)nn(n1,n][n,n+1)[n.5,n+.5)p(n)=6(nπ)26nπ2

Y, de hecho, para cualquier polinomio , hay una cierta tal que sumas a 1. Si a continuación, tomamos el ésimo momento, donde es el orden de , eso divergerá.c cp(n)ccp(n)k p ( n )kkp(n)

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.