Momento finito para un vector aleatorio


9

Si donde el soporte de es . Entonces, . Luego, supongo que tiene momentos finitos. Cuando , sé que porque los medios de donde es la densidad asociada de . ¿Cuál es el equivalente matemático de suponer que tiene momentos finitos cuando ?XFXRpX=(X1,X2,,Xp)Xkp=1

Rxkf(x)dx<,
f(x)FXkp>1

En este enlace, en la página 2, los autores definen el ésimo momento como donde \ | \ cdot \ | es la norma euclidianak

EXk=Xkf(x)dx,

La respuesta de Glen_b aquí sugiere que el k ésimo momento sería

x1kx2kxpkf(x)dx.

¿Asumir que uno es finito implica que el otro es finito?


¿Has visto este lenguaje usado para alguna parte? Esencialmente para los momentos serán tensores de orden . Entonces para tienes un vector medio, para tienes una matriz de (co) varianza, para tendrías un tensor de "asimetría" de orden , y así sucesivamente. (Suponiendo momentos sobre la media, para )p>1p>1kthk=1k=2k=33rdk>1
GeoMatt22

@ GeoMatt22 Eso es correcto. Sí, he visto el lenguaje utilizado. Por ejemplo, aquí hablan de momentos finitos de un vector aleatorio. 2+δ
Greenparker

¿Quizás el significado sería que todas las entradas del tensor de momento son finitas?
GeoMatt22

@Greenparker, ¿podría citar ese pasaje en el texto? No puedo encontrarlo.
ekvall

@ Student001 Lo siento, enlace incorrecto. Aquí está el enlace correcto. Mire la declaración de decir Teorema 4, página 6.
Greenparker

Respuestas:


5

La respuesta es negativa, pero el problema se puede solucionar.

Para ver qué sale mal, deje que tenga una distribución t de Student con dos grados de libertad. Sus propiedades principales son que es finito pero . Considere la distribución bivariada de . Sea su elemento de distribución (que es singular: solo se admite en la diagonal ). A lo largo de la diagonal, , de dondeXE(|X|)E(|X|2)=(X,X)f(x,y)dxdyx=y||(x,y)||=|x|2

E(||(X,X)||1)=E(2|X|)<

mientras

x1y1f(x,y)dxdy=x2f(x,x)dx=.

Los cálculos análogos en dimensiones deberían dejar en claro quep

|x1|k|x2|k|xp|kf(x1,,xp)dx1dxp

Realmente es un momento de orden , no . Para obtener más información sobre los momentos multivariantes, consulte Let be a random vector. Se th momentos de considerados? .pkkYkY


Para descubrir cuáles deberían ser las relaciones entre los momentos multivariados y los momentos de la norma, necesitaremos dos desigualdades. Supongamos que sea ​​cualquier vector -dimensional y que sean números positivos. Escriba para su suma (lo que implica para todo ). Supongamos que sea ​​cualquier número positivo (en la aplicación, para la norma euclidiana, pero resulta que el valor no tiene nada de especial ). Como es costumbre, escribex=(x1,,xp)pk1,k2,,kpk=k1+k2+kpki/k1iq>0q=22

||x||q=(i|xi|q)1/q.

Primero, apliquemos la desigualdad AM-GM a los números no negativos con los pesos . Esto afirma que la media geométrica ponderada no puede exceder la media aritmética ponderada:|xi|qki

(i(|xi|q)ki)1/k1kiki|xi|q.

Sobreestime el lado derecho reemplazando cada por y tome la potencia de ambos lados:ki/k1k/q

(1)i|xi|ki=((i(|xi|q)ki)1/k)k/q(i|xi|q)k/q=||x||qk.

Ahora sobreestimemos reemplazando cada término por el más grande de ellos, :||x||q|xi|qmax(|xi|q)=max(|xi|)q

||x||q(imax(|xi|q))1/q=(pmax(|xi|)q)1/q=p1/qmax(|xi|).

Tomar poderes producekth

(2)||x||qkpk/qmax(|xi|k)pk/qi|xi|k.

Como una cuestión de notación, escriba

μ(k1,k2,,kp)=|x1|k1|x2|k2|xp|kpf(x)dx.

Este es el momento de orden(k1,k2,,kp) (y orden total ). Al integrar aginst , la desigualdad establecekf(1)

(3)μ(k1,,kp)||x||qkf(x)dx=E(||X||qk)

y la desigualdad da(2)

(4)E(||X||qk)pk/q(μ(k,0,,0)+μ(0,k,0,,0)++μ(0,,0,k)).

Su lado derecho es, hasta un múltiplo constante, la suma de los momentos univariados . Juntos, y muestrankth(3)(4)

  • La finitud de todos los momentos univariados implica la finitud de .kthE(||X||qk)

  • La finitud de implica la finitud de todos para los cuales .E(||X||qk)μ(k1,,kp)k1++kp=k

De hecho, estas dos conclusiones se combinan como un silogismo para mostrar que la finitud de los momentos univariados de orden implica la finitud de todos los momentos multivariados de orden total .kk

Así,

Para todos los , el momento de la norma es finito si y solo si todos los momentos de orden total son finito.q>0kthLqE(||X||qk)k


Los momentos más altos deben considerarse tensores y, por lo tanto, normas tensoras.
Henry.L

@ Henry ¿Podría explicar cómo y por qué eso sería una consideración aplicable en este hilo?
whuber

Hola, mira mi respuesta a continuación.
Henry.L

2

La respuesta de @whuber es correcta y está bien compuesta.

Escribí este hilo solo para explicar por qué este problema puede abordarse mejor en el lenguaje de los tensores. Antes pensaba que el punto de vista del tensor es ampliamente aceptado en la comunidad estadística, ahora sé que este no es el caso.

En las páginas 46-47 de [McCullagh], declaró cómo podríamos ver los momentos como tensores. Lo expliqué básicamente siguiendo sus palabras. Sea un vector aleatorio, y podemos discutir sus momentos (centrales) . Y si tomamos transformaciones afines (de manera equivalente, podemos escribirlo en notación matricial en el espacio de probabilidad, entonces el momento resultante (central) de esX=(X1,Xp)κi,j=E(XiEXi)(XjEXj)Yr=ArX+brY=AX+b)Yr,Ys

κr,s=YrXiYsXjκi,j
por fórmula de transformación. Entonces el momento se comporta como un tensor contravariante (0,1). Si aceptamos dicha vista tensorial, entonces la norma / los momentos de una variable aleatoria pueden tratarse como una norma tensora. De hecho, la norma de tensor de índice múltiple del orden más alto no necesariamente vincula la norma de tensor de índice múltiple de orden inferior. Ahora, dado que el tensor está dado por operadores diferenciales de primer orden, la norma del tensor de Sobolev entra en juego naturalmente, por ejemplo, en wavelets. Y hay muchos ejemplos contrarios de que la norma de orden superior no limita las normas de orden inferior en los espacios de Sobolev-Besov. ( Publicación de MO )Lp

En cuanto a la razón por la que deberíamos adoptar tal punto de vista, la historia es mucho más larga, pero sigue un breve comentario.

La referencia clásica para establecer esta visión es [McCullagh] y luego trabajos dispersos en la literatura de "aprendizaje automático". Pero el origen de tal punto de vista se persigue mucho antes en las obras de Bayesian [Jeffereys]. Tal vista definitivamente ayuda a la visualización y probablemente motivó algunas investigaciones en el análisis estadístico de formas, como los primeros trabajos de Mardia.

referencia de

[McCullagh] http://www.stat.uchicago.edu/~pmcc/tensorbook/ch1.pdf

[Jeffreys] Jeffreys, Harold. Tensores cartesianos. Cambridge University Press, 1931.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.