Me alegra ver que mi respuesta (incorrecta) generó dos más, y convirtió una pregunta muerta en un animado hilo de preguntas y respuestas. Entonces es hora de intentar ofrecer algo que valga la pena, supongo) .
Considere un proceso estocástico estacionario de covarianza, correlacionado en serie , con media y autocovarianzas . Suponga que (esto limita la "fuerza" de la autocorrelación ya que dos realizaciones del proceso están cada vez más lejos en el tiempo). Entonces tenemos eso{yt},t=1,...,nμ{γj},γj≡Cov(yt,yt−j)limj→∞γj=0
y¯n=1n∑t=1nyt→m.sμ,asn→∞
es decir, la media de la muestra converge en la media cuadrática a la media real del proceso y, por lo tanto, también converge en la probabilidad: por lo tanto, es un estimador consistente de .μ
Se puede encontrar que la varianza de esy¯n
Var(y¯n)=1nγ0+2n∑j=1n−1(1−jn)γj
que se muestra fácilmente para ir a cero cuando va al infinito.n
Ahora, haciendo uso del comentario de Cardinal, aleatoricemos aún más nuestro estimador de la media, al considerar el estimador
μ~n=y¯n+zn
donde es un proceso estocástico de variables aleatorias independientes que también son independientes de las 's, tomando el valor (parámetro a ser especificado por nosotros) con probabilidad , el valor con una probabilidad de , y cero en caso contrario. Entonces tiene el valor esperado y la varianza{zt}yiata>01/t2−at1/t2{zt}
E(zt)=at1t2−at1t2+0⋅(1−2t2)=0,Var(zt)=2a2
El valor esperado y la varianza del estimador es por lo tanto
E(μ~)=μ,Var(μ~)=Var(y¯n)+2a2
Considere la distribución de probabilidad de, :toma el valor con probabilidad y el valor con probabilidad . Entonces|zn|P(|zn|≤ϵ),ϵ>0|zn|0(1−2/n2)an2/n2
P(|zn|<ϵ)≥1−2/n2=limn→∞P(|zn|<ϵ)≥1=1
lo que significa que converge en probabilidad a (mientras su varianza sigue siendo finita). Por lo tantozn0
plimμ~n=plimy¯n+plimzn=μ
entonces este estimador aleatorio del valor medio del proceso estocástico permanece consistente. Pero su varianza no va a cero cuando va al infinito, ni va al infinito. yn
Cierre, ¿por qué toda la elaboración aparentemente inútil con un proceso estocástico autocorrelacionado? Debido a que Cardinal calificó su ejemplo llamándolo "absurdo", como "solo para mostrar eso matemáticamente, podemos tener un estimador consistente con varianza finita y no nula".
Quería dar una pista de que no es necesariamente una curiosidad, al menos en espíritu: hay momentos en la vida real que comienzan nuevos procesos, procesos creados por el hombre, que tienen que ver con cómo organizamos nuestras vidas y actividades. Si bien generalmente los hemos diseñado y podemos decir mucho sobre ellos, aún así, pueden ser tan complejos que razonablemente se los trata como estocásticos (la ilusión de un control completo sobre tales procesos, o de un conocimiento a priori completo sobre su evolución, procesos) eso puede representar nuevas formas de comerciar o producir, u organizar la estructura de derechos y obligaciones entre humanos, es solo eso, una ilusión). Siendo también nuevo, no tenemos suficientes realizaciones acumuladas de ellos para hacer una inferencia estadística confiable sobre cómo evolucionarán. Entonces, las correcciones ad hoc y quizás "subóptimas" son, sin embargo, un fenómeno real, cuando, por ejemplo, tenemos un proceso en el que creemos firmemente que su presente depende del pasado (de ahí el proceso estocástico auto-correlacionado), pero realmente no lo hacemos. saber cómo todavía (de ahí la aleatorización ad hoc, mientras esperamos que se acumulen los datos para estimar las covarianzas). Y tal vez un estadístico encuentre una mejor manera de lidiar con este tipo de incertidumbre severa, pero muchas entidades tienen que funcionar en un entorno incierto sin el beneficio de tales servicios científicos.
Lo que sigue es la respuesta inicial (incorrecta) (ver especialmente el comentario de Cardinal)
Existen estimadores que convergen en probabilidad a una variable aleatoria: viene a la mente el caso de "regresión espuria", donde si intentamos hacer retroceder dos caminatas aleatorias independientes (es decir, procesos estocásticos no estacionarios) entre sí mediante la estimación de mínimos cuadrados ordinarios , el estimador OLS convergerá a una variable aleatoria.
Pero no existe un estimador consistente con varianza diferente de cero, porque la consistencia se define como la convergencia en la probabilidad de un estimador a una constante , que, por concepción, tiene varianza cero.