Diferencia de dos variables aleatorias lognormales iid


23

Deje que y sean 2 iidrv's donde . Me gustaría saber la distribución de .X1X2log(X1),log(X2)N(μ,σ)X1X2

Lo mejor que puedo hacer es tomar la serie de Taylor de ambos y obtener que la diferencia es la suma de la diferencia entre dos rv normales y dos rv chi-cuadrado además del resto de la diferencia entre el resto de los términos. ¿Hay alguna manera más directa de obtener la distribución de la diferencia entre 2 iid log-normal rv?


Aquí hay un artículo relevante. ¡Encontrarás más documentos buscando en Google! papers.ssrn.com/sol3/papers.cfm?abstract_id=2064829
kjetil b halvorsen

1
He echado un vistazo superficial a ese documento, y no parece responder a mi pregunta de manera satisfactoria. Parecen estar preocupados por las aproximaciones numéricas al problema más difícil de encontrar la distribución de la suma / diferencia entre los rv lognormales correlacionados . Esperaba que hubiera una respuesta más simple para el caso independiente.
frayedchef

2
Puede ser una respuesta más simple en el caso independiente, ¡pero no una simple! El caso lognormal es un caso difícil famoso: la función generadora de momento de la distribución lognormal no existe, es decir, no converge en un intervalo abierto que contenga cero. Por lo tanto, no encontrará una solución fácil.
kjetil b halvorsen

Ya veo ... Entonces, ¿sería razonable el enfoque que describí anteriormente? (es decir, si , ¿Sabemos algo sobre los términos de orden superior, o cómo Yi=log(Xi)X1X2(Y1Y2)+(Y12Y22)/2+...
atarlos

1
Para ilustrar la dificultad --- el mgf lognormal solo se define en . Para aproximar la distribución de la diferencia por métodos saddlepoint, necesitamos (K = gf acumulativo) , . y que suma sólo se define en un punto, cero por lo tanto, no se parece al trabajo o suma promedio sería más simple.!K ( s ) + K ( - s )(,0]K(s)+K(s)
b kjetil Halvorsen

Respuestas:


15

Este es un problema dificil. Primero pensé en usar (alguna aproximación de) la función generadora de momento de la distribución lognormal. Eso no funciona, como explicaré. Pero primero alguna notación:

Sea la densidad normal estándar y la función de distribución acumulativa correspondiente. Solo analizaremos la distribución lognormal de casos , que tiene la función de densidad y función de distribución acumulativa Suponga que e son variables aleatorias independientes con la distribución lognormal anterior. Estamos interesados ​​en la distribución de , que es una distribución simétrica con media cero. Sea la función generadora de momentos deΦ l n N ( 0 , 1 ) f ( x ) = 1ϕΦlnN(0,1)F(x)=Φ(lnx)XYD=X-

f(x)=12πxe12(lnx)2
F(x)=Φ(lnx)
XYM ( t ) = E e t X X t ( - , 0 ] D M D ( t ) = E e t ( X - Y ) = E e t XD=XYM(t)=EetXX. Se define solo para , por lo que no se define en un intervalo abierto que contenga cero. La función de generación de momentos para es . Entonces, la función generadora de momento para solo se define para , por lo que no es muy útil.t(,0]DMD(t)=Eet(XY)=EetXEetY=M(t)M(t)Dt=0

Eso significa que vamos a necesitar algún enfoque más directo para encontrar aproximaciones para la distribución de . Suponga que , calcule (y el caso se resuelve por simetría, obtenemos ). Dt0 t<0P(Dt)=1-P(D|t|)

P(Dt)=P(XYt)=0P(Xyt|Y=y)f(y)dy=0P(Xt+y)f(y)dy=0F(t+y)f(y)dy
t<0P(Dt)=1P(D|t|)

Esta expresión se puede usar para la integración numérica o como base para la simulación. Primero una prueba:

 integrate(function(y) plnorm(y)*dlnorm(y), lower=0,  upper=+Inf)
  0.5 with absolute error < 2.3e-06

Lo cual es claramente correcto. Vamos a resumir esto dentro de una función:

pDIFF  <-  function(t) {
    d  <-  t
    for (tt in seq(along=t)) {
        if (t[tt] >= 0.0) d[tt] <- integrate(function(y) plnorm(y+t[tt])*dlnorm(y),
                                         lower=0.0,  upper=+Inf)$value else
                          d[tt] <- 1-integrate(function(y) plnorm(y+abs(t[tt]))*dlnorm(y),
                                         lower=0.0, upper=+Inf)$value
    }
    return(d)
}

> plot(pDIFF,  from=-5,  to=5)

lo que da:

función de distribución acumulativa encontrada por integración numérica

Luego podemos encontrar la función de densidad diferenciando bajo el signo integral, obteniendo

dDIFF  <-  function(t) {
       d  <- t; t<- abs(t)
       for (tt in seq(along=t)) {
           d[tt]  <-  integrate(function(y) dlnorm(y+t[tt])*dlnorm(y),
                                lower=0.0,  upper=+Inf)$value
       }
       return(d)
}

que podemos probar:

> integrate(dDIFF,  lower=-Inf,  upper=+Inf)
0.9999999 with absolute error < 1.3e-05

Y trazando la densidad que obtenemos:

plot(dDIFF,  from=-5,  to=5)

función de densidad encontrada por integración numérica

También intenté obtener una aproximación analítica, pero hasta ahora no tuve éxito, no es un problema fácil. Pero la integración numérica como la anterior, programada en R es muy rápida en el hardware moderno, por lo que es una buena alternativa que probablemente debería usarse mucho más.


1

Esto no responde estrictamente a su pregunta, pero ¿no sería más fácil observar la proporción de e ? Entonces simplemente llegas aXY

Pr(XYt)=Pr(log(XY)log(t))=Pr(log(X)log(Y)log(t))N(0,2σ2)

Dependiendo de su aplicación, esto puede satisfacer sus necesidades.


3
¿Pero no estamos viendo XY en lugar de log (X) - log (Y)?
Sextus Empiricus

Sí, por supuesto. Esto es solo en caso de que alguien esté interesado en saber cómo dos variables lognormales difieren entre sí sin que necesariamente tenga que ser una diferencia. Es por eso que también digo que no responde la pregunta.
Vincent Traag
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.