[Creo que este podría ser un ejemplo del tipo de situación en discusión en su pregunta.]
Existen numerosos ejemplos de estimadores inconsistentes de ML. La inconsistencia se ve comúnmente con una variedad de problemas de mezcla ligeramente complicados y problemas de censura.
[La consistencia de una prueba es básicamente solo que el poder de la prueba para una hipótesis falsa (fija) aumenta a uno cuando .]n→∞
Radford Neal da un ejemplo en su entrada de blog del 2008-08-09 Estimación inconsistente de máxima verosimilitud: un ejemplo "ordinario" . Implica la estimación del parámetro en:θ
X | θ ∼ (1/2)N(0,1) + (1/2)N(θ,exp(−1/θ2)2)
(Neal usa donde tengo θ ) donde la estimación de ML de θ tenderá a 0 como ntθθ0 (y, de hecho, la probabilidad puede ser mucho mayor en un pico cercano a 0 que en el valor verdadero para tamaños de muestra bastante modestos). Sin embargo, es cierto que hay un pico cerca del valor verdadero θ , es más pequeño que el cercano a 0.n→∞θ
Imagine ahora dos casos relacionados con esta situación:
a) realizar una prueba de razón de probabilidad de contra la alternativa H 1 :H0:θ=θ0 ;H1:θ<θ0
b) realizar una prueba de razón de probabilidad de contra la alternativa H 1 :H0:θ=θ0 .H1:θ≠θ0
En el caso (a), imagine que el verdadero (de modo que la alternativa es verdadera y 0 es el otro lado del verdadero θ ). Entonces, a pesar del hecho de que la probabilidad muy cercana a 0 excederá eso en θ , la probabilidad en θ sin embargo excede la probabilidad en θ 0 incluso en muestras pequeñas, y la relación continuará creciendo a medida que n → ∞θ<θ00θθθθ0n→∞ , en tales una manera de hacer que la probabilidad de rechazo en una prueba de razón de probabilidad vaya a 1.
De hecho, incluso en el caso (b), siempre que sea fijo y delimitado desde 0 , también debería darse el caso de que la razón de probabilidad crecerá de tal manera que la probabilidad de rechazo en una prueba de razón de probabilidad también enfoque 1.θ00
Por lo tanto, este parece ser un ejemplo de estimación inconsistente de ML, donde la potencia de un LRT debería ir a 1 (excepto cuando ).θ0=0
[Tenga en cuenta que realmente no hay nada de esto que aún no esté en la respuesta de Whuber, lo que creo que es un ejemplo de claridad, y es mucho más simple para comprender la diferencia entre la consistencia de la prueba y la consistencia de un estimador. El hecho de que el estimador inconsistente en el ejemplo específico no fuera ML no importa realmente en cuanto a comprender esa diferencia, y traer un estimador inconsistente que sea específicamente ML, como he tratado de hacer aquí, realmente no altera el explicación de cualquier manera sustantiva. El único punto real del ejemplo aquí es que creo que aborda su preocupación sobre el uso de un estimador de ML.]