"¿Qué hace que el estimador funcione cuando la distribución de error real no coincide con la distribución de error supuesta?"
En principio, el QMPLE no "funciona", en el sentido de ser un "buen" estimador. La teoría desarrollada en torno al QMLE es útil porque ha llevado a pruebas de especificación errónea.
Lo que el QMLE ciertamente hace es estimar consistentemente el vector de parámetros que minimiza la divergencia de Kullback-Leiber entre la distribución verdadera y la especificada. Esto suena bien, pero minimizar esta distancia no significa que la distancia minimizada no sea enorme.
Aún así, leemos que hay muchas situaciones en las que el QMLE es un estimador consistente para el verdadero vector de parámetros. Esto tiene que evaluarse caso por caso, pero permítanme dar una situación muy general, que muestra que no hay nada inherente en el QMLE que lo haga consistente para el vector verdadero ...
... Más bien es el hecho de que coincide con otro estimador que siempre es consistente (manteniendo el supuesto de la muestra ergódica-estacionaria): el estimador anticuado del Método de los Momentos.
En otras palabras, cuando tenga dudas acerca de la distribución, una estrategia a considerar es "especificar siempre una distribución para la cual el estimador de máxima verosimilitud para los parámetros de interés coincida con el estimador del método de momentos" : de esta manera, no importa cuán fuera de lugar es su suposición distributiva, el estimador al menos será consistente.
Puede llevar esta estrategia a extremos ridículos: suponga que tiene una muestra iid muy grande de una variable aleatoria, donde todos los valores son positivos. Continúe y suponga que la variable aleatoria se distribuye normalmente y aplique la máxima probabilidad para la media y la varianza: su QMLE será consistente para los valores verdaderos.
Por supuesto, esto plantea la pregunta, ¿por qué pretender aplicar MLE ya que lo que estamos haciendo esencialmente es confiar y escondernos detrás de las fortalezas de Method of Moments (que también garantiza la normalidad asintótica)?
En otros casos más refinados, se puede demostrar que QMLE es consistente para los parámetros de interés si podemos decir que hemos especificado correctamente la función media condicional pero no la distribución (este es, por ejemplo, el caso de Poisson QMLE agrupado - ver Wooldridge) .