El título "errores en variables" y el contenido de la pregunta parece diferente, ya que pregunta por qué no tenemos en cuenta la variación en al modelar la respuesta condicional, es decir, en inferencia para los parámetros de regresión. Esas dos preocupaciones me parecen ortogonales, así que aquí respondo al contenido.X
He respondido a una pregunta similar antes: ¿Cuál es la diferencia entre condicionar los regresores y tratarlos como fijos? , así que aquí copiaré parte de mi respuesta allí:
Trataré de desarrollar un argumento para condicionar a los regresores de manera algo más formal. Deje que sea un vector aleatorio, y el interés está en regresión en , donde se toma de regresión en el sentido de la expectativa condicional de en . Bajo supuestos multinormales, esa será una función lineal, pero nuestros argumentos no dependen de eso. Comenzamos factorizando la densidad conjunta de la manera habitual
pero esas funciones no se conocen, por lo que utilizamos un modelo parametrizado
donde parametriza la distribución condicional y(Y,X)YXYXf(y,x)=f(y∣x)f(x)
f(y,x;θ,ψ)=fθ(y∣x)fψ(x)
θψla distribución marginal de . En el modelo lineal normal podemos tener pero eso no se supone. El espacio de parámetros completo de es , un producto cartesiano, y los dos parámetros no tienen parte en común.Xθ=(β,σ2)(θ,ψ)Θ×Ψ
Esto puede interpretarse como una factorización del experimento estadístico (o del proceso de generación de datos, DGP), la primera se genera de acuerdo con , y como un segundo paso, se genera de acuerdo con la densidad condicional . Tenga en cuenta que el primer paso no utiliza ningún conocimiento sobre , que ingresa solo en el segundo paso. La estadística es auxiliar para , consulte https://en.wikipedia.org/wiki/Ancillary_statistic .Xfψ(x)Yfθ(y∣X=x)θXθ
Pero, dependiendo de los resultados del primer paso, el segundo paso podría ser más o menos informativo sobre . Si la distribución dada por tiene una varianza muy baja, por ejemplo, las observadas se concentrarán en una región pequeña, por lo que será más difícil estimar . Entonces, la primera parte de este experimento de dos pasos determina la precisión con la que se puede estimar . Por lo tanto, es natural condicionar en inferencia sobre los parámetros de regresión. Ese es el argumento de la condicionalidad, y el esquema anterior deja en claro sus supuestos.θfψ(x)xθθX=x
En experimentos diseñados, su suposición se mantendrá principalmente, a menudo con datos de observación no. Algunos ejemplos de problemas serán: regresión con respuestas rezagadas como predictores. ¡El condicionamiento de los predictores en este caso también condicionará la respuesta! (Agregaré más ejemplos).
Un libro que analiza estos problemas con mucho detalle es Información y familias exponenciales: en teoría estadística de O. E Barndorff-Nielsen. Ver especialmente el capítulo 4. El autor dice que la lógica de separación en esta situación rara vez se explica, pero da las siguientes referencias: RA Fisher (1956) Métodos estadísticos e inferencia científica y Sverdrup (1966) El estado actual de la teoría de la decisión y La teoría de Neyman-Pearson .§4.3
La factorización utilizada aquí es algo similar en espíritu al teorema de factorización de estadísticas suficientes. Si el foco está en los parámetros de regresión , y la distribución de no depende de , entonces ¿cómo podría la distribución de (o la variación en) contener información sobre ? θXθXθ
Este argumento de separación también es útil porque señala los casos en los que no se puede usar, por ejemplo, la regresión con respuestas rezagadas como predictores.