Encuentre la distribución conjunta de y


8

Esta pregunta es de la Introducción a las estadísticas matemáticas de Robert Hogg, sexta versión, pregunta 7.6.7. El problema es :

Deje que se tome una muestra aleatoria de tamaño de una distribución con el pdfn

f(x;θ)=(1/θ)exp(x/θ)I(0,)(x)

Encuentre el MLE y el MVUE de .P(X2)

Sé cómo encontrar el MLE.

Creo que la idea de encontrar el MVUE es usar Rao-Blackwell y Lehmann y Scheffe. Primero encontramos un estimador imparcial de que puede ser , y sabemos a estadística suficienteP(X2)I(0,2)(X1)Y=i=1nXi

Entonces será el MUVE.E[I(0,2)(X1)Y]

Para encontrar la expectativa, necesitamos la distribución conjunta de eX1Y=i=1nXi

Estoy atrapado aquí.

El libro tiene una solución, pero no entiendo la solución. La solución dice: encontremos la distribución conjunta de e pero primero dejando que y el jacobiano es uno y luego integramos esas otras variables.Z=X1YV=X1+X2U=X1+X2+X3+...

¿Cómo es que el jacobiano es igual a uno?

La respuesta para la distribución conjunta es

g(z,y;θ)=(yz)n2(n2)!θney/θ

¿Cómo conseguimos esto?

Actualización: Como lo sugiere Xi'an (la transformación sugerida en el libro es confusa), hagamos la transformación de la siguiente manera:

Dejar

Y1=X1,Y2=X1+X2,Y3=X1+X2+X3,Y4=X1+X2+X3+X4,Yn=X1+X2+X3+X4++Xn

entonces

X1=Y1,X2=Y2Y1,X3=Y3Y2,X4=Y4Y3,Xn=YnYn1

y el jacobiano correspondiente es:

|J|=|x1y1x1y2x1y3x1ynx2y1x2y2x2y3x2ynx3y1x3y2x3y3x3ynxny1xny2xny3xnyn|=10000110000110000011=1

Dado que son iid [o ], la densidad conjunta de es:X1,X2,,XnΓ(1,θ)E(1/θ)x1,x2,,xn

f(x1,x2,,xn)=1θexp(x1/θ)×1θexp(x2/θ)××1θexp(xn/θ)Ix10Ixn0

Por lo tanto, el pdf conjunto de es(Y1,Y2,,Yn)

h(y1,y2,,yn)=1θnexp(y1/θ)exp[(y2y1)/θ]exp[(y3y2)/θ]exp[(ynyn1)/θ]|J|Iy10Iy2y10Iynyn10=1θnexp(yn/θ)Iy10Iy2y1Iynyn1

A continuación, podemos integrar para obtener el pdf conjunto yy2,y3,,yn1y1yn

Gracias a las sugerencias de Xi'an, ahora puedo resolver el problema, daré cálculos detallados a continuación.

g(y1,yn)=y1yny2ynyn3ynyn2yn1θnexp(yn/θ)dyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn3ynyn2yndyn1dyn2dy3dy2=1θnexp(yn/θ)y1yny2ynyn4ynyn3yn(ynyn2)dyn2dyn3dy3dy2=1θnexp(yn/θ)y1yny2ynyn5ynyn4yn(ynyn3)22dyn3dyn4dy3dy2=1θnexp(yn/θ)y1yny2ynyn6ynyn5yn(ynyn4)32×3dyn4dyn5dy3dy2=1θnexp(yn/θ)y1yny2ynyn7ynyn6yn(ynyn5)42×3×4dyn5dyn4dy3dy2==1θnexp(yn/θ)(yny1)n2(n2)!

Cambie a la notación del libro, , obtenemosy=yn,z=y1

g(z,y;θ)=(yz)n2θn(n2)!ey/θ.

Esto resuelve el problema.


No entiendo la noción de pasar por pero la transformación de a tiene un jacobiano de uno, solo aplique La definición de un jacobiano. X1+X2(x1,...,xn)(x1,x1+x2,,x1++xn)
Xi'an

@ Xi'an, gracias. Intenté la transformación pero todavía no puedo obtener la solución que sugirió el libroY1=X1,Y2=X1+X2,...,Yn=X1+X2+...+Xn
Deep North

1
Ya casi está: la derivación de la densidad conjunta de agregando las funciones del indicador. Esto implica que los límites en las integrales de deben ser si integra primero, luego , luego ... ¡Esto le proporcionará lo que falta. (Y1,,Yn)y2,,yn1
y1yny2ynyn2yn
yn1yn2(n2)!
Xi'an

Respuestas:


4

El argumento de transformación funciona bien y siempre es útil, pero ahora sugeriré una forma alternativa de resolver este problema que tiene cierta semejanza con el método que usaría si las variables fueran discretas. Recuerde que la principal diferencia es que mientras que para una variable aleatoria discreta está bien definida para un rv continuo , , entonces debemos ser un poco cuidadosos.X P(X=x)YP(Y=y)=0

Deje y ahora estamos buscando la distribución conjuntaS=i=1nXi

fX1,S(x1,s)

que podemos aproximar con la probabilidad

fX1,S(x1,s)P[x1<X1<x1+Δx1,s<S<s+Δs]P[x1<X1<x1+Δx1,sx1<i=2nXi<sx1+Δs]=P[x1<X1<x1+Δx1]P[sx1<i=2nXi<sx1+Δs]1θexp{x1θ}(sx1)n2exp{sx1θ}Γ(n1)θn1=(sx1)n2θn(n2)!exp{sθ}

para . Tenga en cuenta que en la cuarta línea hemos utilizado la propiedad de aditividad de la distribución gamma, de la cual el exponencial es un caso especial.0<x1<s<

Si ajusta la notación, estamos obteniendo lo mismo aquí que arriba. Este método le permite salirse con la integración múltiple y por eso lo prefiero. Sin embargo, tenga cuidado al definir las densidades.

Espero que esto ayude.


4

Corrígeme si estoy equivocado, pero no creo que sea necesario encontrar la distribución condicional para encontrar la expectativa condicional para el UMVUE. Podemos encontrar la media condicional utilizando relaciones bien conocidas entre las variables independientes Beta y Gamma. Específicamente, el hecho de que si y son variables Gamma independientes, entonces es una variante Gamma, y ​​es independiente de la variante Beta .UVU+VUU+V

Aquí, tenga en cuenta que y se distribuyen independientemente. Y se distribuye independientemente de .X1Gamma(1,1θ)i=2nXiGamma(n1,1θ)X1+i=2nXiGamma(n,1θ)X1X1+i=2nXiBeta(1,n1)

Definah(X1,,Xn)={1, if X120, otherwise 

T=i=1nXi es suficiente para la familia de distribuciones .{1exp(xθ):θ>0}

Entonces UMVUE de es según el teorema de Lehmann-Scheffe.P(X2)E(hT)

Tenemos,

E(hT=t)=P(X12i=1nXi=t)=P(X1i=1nXi2ti=1nXi=t)=P(X1X1+i=2nXi2ti=1nXi=t)=P(X1X1+i=2nXi2t)=02/t(1x)n2B(1,n1)dx=1(12t)n1

Por lo tanto, el UMVUE de debe ser .P(X2)1(12i=1nXi)n1


1
Me gusta más esta respuesta.
hyg17
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.