Estoy haciendo un experimento numérico que consiste en muestrear una distribución lognormal , y tratando de estimar los momentos por dos métodos:
- Mirando la media muestral de la
- Estimando y usando las medias muestrales para , y luego usando el hecho de que para una distribución lognormal, tenemos .
La pregunta es :
Experimentalmente, encuentro que el segundo método funciona mucho mejor que el primero, cuando mantengo fijo el número de muestras y aumento en algún factor T. ¿Hay alguna explicación simple para este hecho?
Adjunto una figura en la que el eje x es T, mientras que el eje y son los valores de comparando los valores verdaderos de (línea naranja), a los valores estimados. método 1: puntos azules, método 2: puntos verdes. el eje y está en escala logarítmicaE [ X 2 ] = exp ( 2 μ + 2 σ 2 )
EDITAR:
A continuación se muestra un código mínimo de Mathematica para producir los resultados para una T, con la salida:
ClearAll[n,numIterations,sigma,mu,totalTime,data,rmomentFromMuSigma,rmomentSample,rmomentSample]
(* Define variables *)
n=2; numIterations = 10^4; sigma = 0.5; mu=0.1; totalTime = 200;
(* Create log normal data*)
data=RandomVariate[LogNormalDistribution[mu*totalTime,sigma*Sqrt[totalTime]],numIterations];
(* the moment by theory:*)
rmomentTheory = Exp[(n*mu+(n*sigma)^2/2)*totalTime];
(*Calculate directly: *)
rmomentSample = Mean[data^n];
(*Calculate through estimated mu and sigma *)
muNumerical = Mean[Log[data]]; (*numerical \[Mu] (gaussian mean) *)
sigmaSqrNumerical = Mean[Log[data]^2]-(muNumerical)^2; (* numerical gaussian variance *)
rmomentFromMuSigma = Exp[ muNumerical*n + (n ^2sigmaSqrNumerical)/2];
(*output*)
Log@{rmomentTheory, rmomentSample,rmomentFromMuSigma}
Salida:
(*Log of {analytic, sample mean of r^2, using mu and sigma} *)
{140., 91.8953, 137.519}
arriba, el segundo resultado es la media muestral de , que está debajo de los otros dos resultados