Yo entiendo que la prueba de Wald para los coeficientes de regresión se basa en la propiedad después de que mantiene asintóticamente (por ejemplo Wasserman (2006): Todos Estadística , páginas 153, 214-215): Dondeβdenota el coeficiente de regresión estimado,^SE(β)denota el error estándar del coeficiente de regresión yβ0es el valor de interés (β0es generalmente de 0 para probar si el coeficiente es significativamente diferente de 0). Por lo tanto, laprueba detamañoαWald es: rechazarH0cuando| W| >zα/
Pero cuando realiza una regresión lineal con lm
en R, se usa un valor lugar de un valor z para probar si los coeficientes de regresión difieren significativamente de 0 (con ). Además, la salida de en R a veces da valores zy otras veces t como estadísticas de prueba. Aparentemente, los valores z se usan cuando se supone que el parámetro de dispersión se conoce y los valores t se usan cuando se estima el parámetro de dispersión (vea este enlace ).summary.lm
glm
¿Podría alguien explicar por qué a veces se usa una distribución para una prueba de Wald a pesar de que se supone que la relación del coeficiente y su error estándar se distribuye como normal normal?
Editar después de responder la pregunta
Esta publicación también proporciona información útil para la pregunta.
lm
glm