Sean y1,…,yn los datos observados que se supone que son una realización de una secuencia de iid variables aleatorias Y1,…,Yn con función de densidad de probabilidad común pe definida con respecto a una medida sigma-finita ν . La densidad pe se denomina densidad del Proceso de generación de datos (DGP).
En el modelo de probabilidad del investigador
M≡{p(y;θ):θ∈Θ} es una colección de funciones de densidad de probabilidad que están indexadas por un vector de parámetros
θ . Suponga que cada densidad en M está definida con respecto a una medida sigma-finita común ν (por ejemplo, cada densidad podría ser una función de masa de probabilidad con el mismo espacio muestral S ).
Es importante mantener la densidad pe que realmente generó los datos conceptualmente distintos del modelo de probabilidad de los datos. En los tratamientos estadísticos clásicos, una cuidadosa separación de estos conceptos se ignora, no se realiza, o se supone desde el principio que el modelo de probabilidad está correctamente especificado.
Un modelo M correctamente especificado con respecto a pe se define como un modelo donde pe∈M ν casi en todas partes. Cuando
M está mal especificado con respecto a pe esto corresponde al caso en el que el modelo de probabilidad no está correctamente especificado.
Si el modelo de probabilidad se especifica correctamente, entonces existe un θ∗ en el espacio de parámetros Θ tal que
pe(y)=p(y;θ∗) ν -casi en todas partes. Tal vector de parámetro se llama el "vector de parámetro verdadero". Si el modelo de probabilidad está mal especificado, entonces el vector de parámetro verdadero no existe.
En el marco errores de modelo de White el objetivo es encontrar la estimación del parámetro θ n que minimiza
ℓ n ( θ ) ≡ ( 1 / n ) Σ n i = 1 log P ( Y i ; θ ) sobre algunos compacto espacio de parámetros Θ . Se supone que un minimizador global estricto único, , del valor esperado de en se encuentra en el interior deθ^nℓ^n(θ)≡(1/n)∑ni=1logp(yi;θ)Θθ∗ℓ^nΘΘ. En el caso de suerte donde el modelo de probabilidad se especifica correctamente, θ∗ puede interpretarse como el "valor del parámetro verdadero".
En el caso especial donde se especifica correctamente el modelo de probabilidad, a continuación, θ n es la estimación de máxima verosimilitud familiar. Si no es así que sabemos tener conocimiento absoluto de que el modelo de probabilidad se especifica correctamente, entonces θ n se llama una estimación de probabilidad cuasi-máxima y el objetivo es estimar θ * . Si tenemos suerte y el modelo de probabilidad se especifica correctamente, entonces la estimación de probabilidad cuasi máxima se reduce como un caso especial a la estimación de máxima probabilidad familiar y
θ ∗ se convierte en el verdadero valor del parámetro.θ^nθ^nθ∗θ∗
La consistencia dentro del marco de White (1982) corresponde a la convergencia a θ∗ sin requerir que θ∗ sea necesariamente el verdadero vector de parámetro. Dentro del marco de White, nunca estimaríamos la probabilidad del evento de que los conjuntos producidos por δ incluyan la distribución VERDADERA P *. En cambio, siempre estimaríamos la distribución de probabilidad P **, que es la probabilidad del evento de que los conjuntos producidos por δ incluyan la distribución especificada por la densidad
p(y;θ∗) .
Finalmente, algunos comentarios sobre la especificación incorrecta del modelo. Es fácil encontrar ejemplos donde un modelo mal especificado es extremadamente útil y muy predictivo. Por ejemplo, considere un modelo de regresión no lineal (o incluso lineal) con un término de error residual gaussiano cuya varianza es extremadamente pequeña, pero el error residual real en el entorno no es gaussiano.
También es fácil encontrar ejemplos en los que un modelo especificado correctamente no sea útil y no sea predictivo. Por ejemplo, considere un modelo de caminata aleatoria para predecir los precios de las acciones que predice el precio de cierre de mañana es una suma ponderada del precio de cierre de hoy y algo de ruido gaussiano con una variación extremadamente grande.
El propósito del marco de especificación errónea del modelo no es garantizar la validez del modelo, sino más bien garantizar la confiabilidad. Es decir, asegúrese de que el error de muestreo asociado con las estimaciones de sus parámetros, los intervalos de confianza, las pruebas de hipótesis, etc., se estimen correctamente a pesar de la presencia de una pequeña o gran cantidad de especificación errónea del modelo. Las estimaciones de probabilidad cuasi máxima son asintóticamente normales centradas en θ∗ con un estimador de matriz de covarianza que depende tanto de la primera como de la segunda derivada de la función de probabilidad logarítmica negativa. En el caso especial en el que tiene suerte y el modelo es correcto, todas las fórmulas se reducen al marco estadístico clásico familiar donde el objetivo es estimar los valores de los parámetros "verdaderos".