Me pregunto si alguna vez se utilizó la estimación de máxima verosimilitud en las estadísticas.
¡Ciertamente! En realidad bastante, pero no siempre.
Aprendemos el concepto, pero me pregunto cuándo se usa realmente.
Cuando las personas tienen un modelo de distribución paramétrico, a menudo eligen usar la estimación de máxima verosimilitud. Cuando el modelo es correcto, hay varias propiedades útiles de los estimadores de máxima verosimilitud.
Por ejemplo, el uso de modelos lineales generalizados está bastante extendido y en ese caso los parámetros que describen la media se estiman por máxima probabilidad.
Puede suceder que algunos parámetros se estimen por la máxima probabilidad y otros no. Por ejemplo, considere un GLM de Poisson sobredispersado: el parámetro de dispersión no se estimará con la máxima probabilidad, porque el MLE no es útil en ese caso.
Si asumimos la distribución de los datos, encontramos dos parámetros.
Bueno, a veces puede tener dos, pero a veces tiene un parámetro, a veces tres o cuatro o más.
uno para la media y otro para la varianza,
¿Estás pensando en un modelo particular quizás? Este no es siempre el caso. Considere estimar el parámetro de una distribución exponencial o una distribución de Poisson, o una distribución binomial. En cada uno de esos casos, hay un parámetro y la varianza es una función del parámetro que describe la media.
O considere una distribución gamma generalizada , que tiene tres parámetros. O una distribución beta de cuatro parámetros , que tiene (tal vez como era de esperar) cuatro parámetros. Tenga en cuenta también que (dependiendo de la parametrización particular) la media o la varianza o ambas pueden no estar representadas por un solo parámetro sino por las funciones de varios de ellos.
Por ejemplo, la distribución gamma, para la cual hay tres parametrizaciones que se ven bastante comunes, las dos más comunes tienen la media y la varianza como funciones de dos parámetros.
Típicamente en un modelo de regresión o un GLM, o un modelo de supervivencia (entre muchos otros tipos de modelos), el modelo puede depender de múltiples predictores, en cuyo caso la distribución asociada con cada observación bajo el modelo puede tener uno de sus propios parámetros (o incluso varios parámetros) que están relacionados con muchas variables predictoras ("variables independientes").