La imparcialidad no es necesariamente especialmente importante por sí sola.
Aparte de un conjunto muy limitado de circunstancias, la mayoría de los estimadores útiles son parciales, sin embargo, se obtienen.
Si dos estimadores tienen la misma varianza, uno puede montar fácilmente un argumento para preferir uno imparcial a uno sesgado, pero esa es una situación inusual (es decir, puede preferir razonablemente imparcialidad, ceteris paribus , pero esos molestos ceteris casi nunca son paribus ).
Más típicamente, si desea imparcialidad, agregará alguna variación para obtenerlo, y luego la pregunta sería ¿por qué haría eso ?
El sesgo es hasta qué punto el valor esperado de mi estimador será demasiado alto en promedio (con un sesgo negativo que indica demasiado bajo).
Cuando estoy considerando un estimador de muestra pequeño, realmente no me importa eso. Por lo general, estoy más interesado en cuán equivocado estará mi estimador en este caso : mi distancia típica de la derecha ... algo como un error de media cuadrática o un error absoluto medio tendría más sentido.
Entonces, si le gusta la varianza baja y el sesgo bajo, tendría sentido pedir un estimador de error cuadrático medio mínimo ; estos son muy raramente imparciales.
El sesgo y la imparcialidad es una noción útil a tener en cuenta, pero no es una propiedad especialmente útil para buscar a menos que solo esté comparando estimadores con la misma varianza.
Los estimadores de ML tienden a ser de baja varianza; por lo general, no tienen un MSE mínimo, pero a menudo tienen un MSE más bajo que el que modificarlo para que sea imparcial (cuando puede hacerlo) le daría.
Como ejemplo, considere estimar la varianza al tomar muestras de una distribución normal (de hecho, el MMSE para la varianza siempre tiene un denominador mayor que ).σ^2MMSE= S2n + 1, σ^2MLE= S2norte, σ^2Unb= S2n - 1n - 1