Los estimadores de máxima verosimilitud (MLE) son asintóticamente eficientes; vemos el resultado práctico en que a menudo les va mejor que las estimaciones del método de momentos (MoM) (cuando difieren), incluso con tamaños de muestra pequeños
Aquí 'mejor que' significa en el sentido de tener típicamente una varianza menor cuando ambas son insesgadas y, en general, un error cuadrado medio (MSE) más pequeño.
La pregunta, sin embargo, ocurre:
¿Hay casos en los que el MoM puede vencer al MLE , por ejemplo, en MSE , en pequeñas muestras?
(donde esta no es una situación extraña / degenerada, es decir, dadas las condiciones para que el ML exista / sea una retención asintóticamente eficiente)
Una pregunta de seguimiento sería: "¿Qué tan grande puede ser pequeño?" Es decir, si hay ejemplos, ¿hay algunos que aún se mantengan en tamaños de muestra relativamente grandes, tal vez incluso todos los tamaños de muestra finitos?
[Puedo encontrar un ejemplo de un estimador sesgado que puede vencer a ML en muestras finitas, pero no es MoM.]
Nota agregada retrospectivamente: mi enfoque aquí es principalmente en el caso univariante (que en realidad es de donde proviene mi curiosidad subyacente). No quiero descartar casos multivariados, pero tampoco quiero desviarme en discusiones extensas sobre la estimación de James-Stein.