Bien, veamos tu situación. Tiene básicamente dos regresiones (APD = diámetro anteroposterior, NOL = longitud naso-occipital, HL = longitud humeral):
- A PD = β0 , 1+ β1 , 1⋅ NO L
- HL = β0 , 2+ β1 , 2⋅ NO L
Para probar la hipótesis , puede hacer lo siguiente:β1 , 1= β1 , 2
- Cree una nueva variable dependiente ( ) simplemente agregando APD a HLYn e w
- Cree una nueva variable independiente agregando NOL a sí mismo ( ) (es decir, duplicando NOL)Xn e w
- Cree una variable ficticia ( ) que sea 1 si los datos provienen del segundo conjunto de datos (con HL) y 0 si los datos provienen del primer conjunto de datos (APD).re
- Calcule la regresión con como variable dependiente, y los efectos principales y la interacción entre y la variable ficticia como variables explicativas. EDIT @Jake Westfall señaló que el error estándar residual podría ser diferente para las dos regresiones para cada DV. Jake proporcionó la respuesta que se ajusta a un modelo generalizado de mínimos cuadrados (GLS) que permite que el error estándar residual difiera entre las dos regresiones. X n e w DYn e wXn e wre
Veamos un ejemplo con datos inventados (en R
):
# Create artificial data
library(nlme) # needed for the generalized least squares
set.seed(1500)
NOL <- rnorm(10000,100,12)
APD <- 10 + 15*NOL+ rnorm(10000,0,2)
HL <- - 2 - 5*NOL+ rnorm(10000,0,3)
mod1 <- lm(APD~NOL)
mod1
Coefficients:
(Intercept) NOL
10.11 15.00
mod2 <- lm(HL~NOL)
mod2
Coefficients:
(Intercept) NOL
-1.96 -5.00
# Combine the dependent variables and duplicate the independent variable
y.new <- c(APD, HL)
x.new <- c(NOL, NOL)
# Create a dummy variable that is 0 if the data are from the first data set (APD) and 1 if they are from the second dataset (HL)
dummy.var <- c(rep(0, length(APD)), rep(1, length(HL)))
# Generalized least squares model allowing for differend residual SDs for each regression (strata of dummy.var)
gls.mod3 <- gls(y.new~x.new*dummy.var, weights=varIdent(form=~1|dummy.var))
Variance function:
Structure: Different standard deviations per stratum
Formula: ~1 | dummy.var
Parameter estimates:
0 1
1.000000 1.481274
Coefficients:
Value Std.Error t-value p-value
(Intercept) 10.10886 0.17049120 59.293 0
x.new 14.99877 0.00169164 8866.430 0
dummy.var -12.06858 0.30470618 -39.607 0
x.new:dummy.var -19.99917 0.00302333 -6614.939 0
Nota: La intersección y la pendiente para son exactamente las mismas que en la primera regresión (mod1). El coeficiente de denota la diferencia entre la intersección de las dos regresiones. Además: la desviación estándar residual de la segunda regresión se estimó mayor que la DE de la primera (aproximadamente 1.5 veces mayor). Esto es exactamente lo que hemos especificado en la generación de los datos (2 vs. 3). Ya casi llegamos: el coeficiente del término de interacción ( ) prueba la igualdad de las pendientes. Aquí la pendiente de la segunda regresión (mod2) es aproximadamente o aproximadamente . La diferencia deXn e wdummy.var
x.new:dummy.var
βx . n e w- βx . n e w × du m m y. v a r15 - 20 = - 520es exactamente lo que hemos especificado cuando generamos los datos. Si trabaja en Stata, hay una buena explicación aquí.
Advertencia: esto solo funciona si el diámetro anteroposterior y la longitud nasoocipital (las dos variables dependientes) son independientes. De lo contrario, puede ser muy complicado.
EDITAR
Estas dos publicaciones en el sitio abordan la misma pregunta: primero y segundo .