¿Cuál es el método de los momentos?
Hay un buen artículo sobre esto en Wikipedia.
https://en.m.wikipedia.org/wiki/Method_of_moments_(statistics)
Significa que está estimando los parámetros de la población seleccionando los parámetros de modo que la distribución de la población tenga los momentos equivalentes a los momentos observados en la muestra.
¿Cómo es diferente de MLE
La estimación de probabilidad máxima minimiza la función de probabilidad. En algunos casos, este mínimo a veces se puede expresar en términos de establecer los parámetros de la población igual a los parámetros de la muestra.
μ = x¯μ
μ = 1 / n ∑ l n ( xyo) = l n ( x )¯¯¯¯¯¯¯¯¯¯¯
Mientras que la solución MoM está resolviendo
e x p ( μ + 12σ2) = x¯
μ = l n ( x¯) - 12σ2
Por lo tanto, el MoM es una forma práctica de estimar los parámetros, que a menudo conduce al mismo resultado exacto que el MLE (ya que los momentos de la muestra a menudo coinciden con los momentos de la población, por ejemplo, una media de muestra se distribuye alrededor de la media de la población, y hasta algún factor / sesgo, funciona muy bien). El MLE tiene una base teórica más sólida y, por ejemplo, permite la estimación de errores utilizando la matriz de Fisher (o estimaciones de la misma), y es un enfoque mucho más natural en el caso de problemas de regresión (no lo he probado pero supongo que un MoM para resolver parámetros en una regresión lineal simpleno funciona fácilmente y puede dar malos resultados. En la respuesta de superpronker, parece que esto se hace minimizando una función. Para MLE, esta minimización expresa una mayor probabilidad, pero me pregunto si representa algo tan similar para MoM).