Estoy acostumbrado a conocer los "grados de libertad" como , donde tienes el modelo lineal \ mathbf {y} = \ mathbf {X} \ boldsymbol {\ beta} + \ boldsymbol {\ epsilon} con \ mathbf {y } \ in \ mathbb {R} ^ n , \ mathbf {X} \ in M_ {n \ times p} (\ mathbb {R}) la matriz de diseño con rango r , \ boldsymbol {\ beta} \ in \ mathbb { R} ^ p , \ boldsymbol {\ epsilon} \ in \ mathbb {R} ^ n con \ boldsymbol {\ epsilon} \ sim \ mathcal {N} (\ mathbf {0}, \ sigma ^ 2 \ mathbf {I} _n) , \ sigma ^ 2> 0 .
Por lo que recuerdo de las estadísticas elementales (es decir, modelos pre-lineales con álgebra lineal), los grados de libertad para la prueba t de pares coincidentes es el número de diferencias menos . Entonces esto implicaría que tenga rango 1, tal vez. ¿Es esto correcto? Si no, ¿por qué es los grados de libertad para la prueba t de pares emparejados ?
Para comprender el contexto, supongamos que tengo un modelo de efectos mixtos
Me gustaría proporcionar un intervalo de confianza para .
Ya he demostrado que es un estimador imparcial de , donde , y se define de manera similar. Se calculó la estimación puntual .
Ya he demostrado que
Ahora la última parte es descubrir los grados de libertad. Para este paso, generalmente trato de encontrar la matriz de diseño, que obviamente tiene rango 2, pero tengo la solución a este problema, y dice que los grados de libertad son .
En el contexto de encontrar el rango de una matriz de diseño, ¿por qué los grados de libertad son ?
Editado para agregar: Quizás útil en esta discusión es cómo se define la estadística de prueba. Supongamos que tengo un vector de parámetros . En este caso, (a menos que me falte algo por completo). Básicamente estamos realizando la prueba de hipótesis where . Luego, el estadístico de prueba viene dado por que se probaría contra una distribución central con