En este ejemplo, hay tres observaciones para cada combinación de las tres máquinas (A, B, C) y los seis trabajadores. Usaré para denotar una matriz de identidad n- dimensional y 1 n para denotar un vector n- dimensional de unos. Digamos que y es el vector de observaciones, que supongo que está ordenado por trabajador, luego máquina y luego replicar. Supongamos que μ son los valores esperados correspondientes (por ejemplo, los efectos fijos) y que γ sea un vector de desviaciones específicas del grupo de los valores esperados (por ejemplo, los efectos aleatorios). Condicional a γ , el modelo para y se puede escribir:Inn1nnyμγγy
y∼N(μ+γ,σ2yI54)
donde es la varianza "residual".σ2y
Para comprender cómo la estructura de covarianza de los efectos aleatorios induce una estructura de covarianza entre las observaciones, es más intuitivo trabajar con la representación "marginal" equivalente , que se integra sobre los efectos aleatorios . La forma marginal de este modelo es,γ
y∼N(μ,σ2yI54+Σ)
Aquí, es una matriz de covarianza que depende de la estructura de γ (por ejemplo, los "componentes de varianza" subyacentes a los efectos aleatorios). Me referiré a Σ como la covarianza "marginal".ΣγΣ
En tu m1
, los efectos aleatorios se descomponen como:
γ=Zθ
Donde es una matriz de diseño que mapea los coeficientes aleatorios en observaciones, y θ T = [ θ 1 , A , θ 1 , B , θ 1 , C ... θ 6 , A , θ 6 , B , θ 6 , C ] es el vector de 18 dimensiones de coeficientes aleatorios ordenados por el trabajador y luego la máquina, y se distribuye como:Z=I18⊗13θT=[θ1,A,θ1,B,θ1,C…θ6,A,θ6,B,θ6,C]
θ∼N(0,I6⊗Λ)
Aquí Λ es la covarianza de los coeficientes aleatorios. La suposición de simetría compuesta significa que tiene dos parámetros, que llamaré σ θ y τ , y la estructura:Λσθτ
Λ=⎡⎣⎢⎢σ2θ+τ2τ2τ2τ2σ2θ+τ2τ2τ2τ2σ2θ+τ2⎤⎦⎥⎥
(En otras palabras, la matriz de correlación subyacente tiene todos los elementos en el conjunto fuera del diagnóstico con el mismo valor).Λ
La estructura de covarianza marginal inducida por estos efectos aleatorios es , de modo que la varianza de una observación dada es σ 2 θ + τ 2 + σ 2 y y la covarianza entre dos observaciones (separadas) de los trabajadores i , j y máquinas u , v es:
c o v ( y i , u , y j , v ) =Σ=Z(I6⊗Λ)ZTσ2θ+τ2+σ2yi,ju,v
cov(yi,u,yj,v)=⎧⎩⎨⎪⎪0τ2σ2θ+τ2if i≠jif i=j,u≠vif i=j,u=v
Para su m2
, los efectos aleatorios se descomponen en:
γ=Zω+Xη
Donde Z es como antes, es una matriz de diseño que mapea las intersecciones aleatorias por trabajador en observaciones, ω T = [ ω 1 , A , ω 1 , B , ω 1 , C , ... , ω 6 , A , ω 6 T = [ η 1 , … , η 6 ]X=I6⊗19ωT=[ω1,A,ω1,B,ω1,C,…,ω6,A,ω6,B,ω6,C]ηT=[η1,…,η6]
η∼N(0,σ2ηI6)
ω∼N(0,σ2ωI18)
σ2η,σ2ω
m2
Σ=σ2ωZZT+σ2ηXXTσ2ω+σ2η+σ2yi,ju,v
cov(yi,u,yj,v)=⎧⎩⎨⎪⎪0σ2ησ2ω+σ2ηif i≠jif i=j,u≠vif i=j,u=v
σ2θ≡σ2ω and τ2≡σ2η. If m1
assumed compound symmetry (which it doesn't with your call to lmer, because the random effects covariance is unstructured).
Brevity is not my strong point: this is all just a long, convoluted way of saying that each model has two variance parameters for the random effects, and are just two different ways of writing of the same "marginal" model.
In code ...
sigma_theta <- 1.8
tau <- 0.5
sigma_eta <- tau
sigma_omega <- sigma_theta
Z <- kronecker(diag(18), rep(1,3))
rownames(Z) <- paste(paste0("worker", rep(1:6, each=9)),
rep(paste0("machine", rep(1:3, each=3)),6))
X <- kronecker(diag(6), rep(1,9))
rownames(X) <- rownames(Z)
Lambda <- diag(3)*sigma_theta^2 + tau^2
# marginal covariance for m1:
Z%*%kronecker(diag(6), Lambda)%*%t(Z)
# for m2:
X%*%t(X)*sigma_eta^2 + Z%*%t(Z)*sigma_omega^2