Con respecto a cómo ajustar los datos a una distribución normal oblicua Podría calcular el estimador de máxima verosimilitud a partir de los primeros principios. Primero tenga en cuenta que la función de densidad de probabilidad para la distribución normal sesgada con el parámetro de ubicación , el parámetro de escala y el parámetro de forma esω αξωα
2ωϕ ( x - ξω) Φ ( α ( x - ξω) )
donde es la función de densidad normal estándar y es el CDF normal estándar. Tenga en cuenta que esta densidad es un miembro de la clase descrita en mi respuesta a esta pregunta .Φ ( ⋅ )ϕ ( ⋅ )Φ ( ⋅ )
La probabilidad de registro basada en una muestra de observaciones independientes de esta distribución es:norte
- n log( ω ) + ∑i = 1norteIniciar sesiónϕ ( x - ξω) +logΦ ( α ( x - ξω) )
Es un hecho que no existe una solución de forma cerrada para este MLE. Pero, se puede resolver numéricamente. Por ejemplo, en R
, podría codificar la función de probabilidad como (tenga en cuenta que lo hice menos compacto / eficiente de lo posible para que sea completamente transparente cómo calcula esto la función de probabilidad anterior):
set.seed(2345)
# generate standard normal data, which is a special case
n = 100
X = rnorm(n)
# Calculate (negative) log likelihood for minimization
# P[1] is omega, P[2] is xi and P[3] is alpha
L = function(P)
{
# positivity constraint on omega
if( P[1] <= 0 ) return(Inf)
S = 0
for(i in 1:n)
{
S = S - log( dnorm( (X[i] - P[2])/P[1] ) )
S = S - log( pnorm( P[3]*(X[i] - P[2])/P[1] ) )
}
return(S + n*log(P[1]))
}
Ahora solo minimizamos numéricamente esta función (es decir, maximizamos la probabilidad). Puede hacer esto sin tener que calcular derivados utilizando el Algoritmo Simplex , que es la implementación predeterminada en el optim()
paquete R
.
Con respecto a cómo evaluar la asimetría: podemos probar explícitamente la asimetría normal frente a la normal (dado que normal es un submodelo) restringiendo y haciendo una prueba de razón de probabilidad .α = 0
# log likelihood constraining alpha=0.
L2 = function(Q) L(c(Q[1],Q[2],0))
# log likelihood from the constrained model
-optim(c(1,1),L2)$value
[1] -202.8816
# log likelihood from the full model
-optim(c(1,1,1),L)$value
[1] -202.0064
# likelihood ratio test statistic
LRT = 2*(202.8816-202.0064)
# p-value under the null distribution (chi square 1)
1-pchisq(LRT,1)
[1] 0.1858265
Por lo tanto, no rechazamos la hipótesis nula de que (es decir, sin sesgo).α = 0
Aquí la comparación fue simple, ya que la distribución normal era un submodelo. En otros casos, más generales, podría comparar la distribución asimétrica normal con otras distribuciones de referencia comparando, por ejemplo, los AIC (como se hace aquí ) si está utilizando estimadores de máxima verosimilitud en todos los ajustes competitivos. Por ejemplo, podría ajustar los datos por la probabilidad máxima bajo una distribución gamma y bajo la inclinación normal y ver si la probabilidad agregada justifica la complejidad agregada de la inclinación normal (3 parámetros en lugar de 2). También podría considerar usar la prueba de una muestra de Kolmogorov Smirnov para comparar sus datos con la mejor estimación de ajuste de la familia de sesgo normal.