Por ley (débil / fuerte) de números grandes, dados algunos puntos de muestra iid de una distribución, su muestra significa converge a la media de distribución tanto en probabilidad como en tamaño de muestra va al infinito
Cuando el tamaño de la muestra es fijo, me pregunto si el estimador LLN es el mejor estimador en algún sentido. Por ejemplo,
- su expectativa es la media de distribución, por lo que es un estimador imparcial. Su varianza es donde es la varianza de distribución. ¿Pero es UMVU?
¿hay alguna función tal que resuelva el problema de minimización:
En otras palabras, es la mejor wrt alguna función de contraste en el marco de contraste mínimo (véase la Sección 2.1 "Heurística básica de estimación" en " Estadística matemática: ideas básicas y temas seleccionados, Volumen 1 " de Bickle y Doksum).
Por ejemplo, si se sabe / restringe la distribución de la familia de distribuciones gaussianas, entonces la media de la muestra será el estimador MLE de la media de distribución, y MLE pertenece al marco de contraste mínimo, y su función de contraste es menos la probabilidad logarítmica función.
¿hay alguna función tal que resuelva el problema de minimización: para cualquier distribución de dentro de alguna familia de distribuciones?
En otras palabras, es la mejor wrt alguna función perdida y alguna familia de distribuciones en el marco teórico de decisión (véase la Sección 1.3 "El Marco Teórico de Decisión" en " Estadística matemática: ideas básicas y temas seleccionados, Volumen 1 " por Bickle y Doksum).
Tenga en cuenta que las anteriores son tres interpretaciones diferentes para una "mejor" estimación que he conocido hasta ahora. Si conoce otras posibles interpretaciones que pueden aplicarse al estimador LLN, no dude en mencionarlo también.