Wikipedia sugiere que una forma de ver la confiabilidad entre evaluadores es usar un modelo de efectos aleatorios para calcular la correlación intraclase . El ejemplo de correlación intraclase habla de mirar
de un modelo
"donde Y ij es el j ésimo observación en el i ésimo grupo, μ es una media global no observada, α i es un efecto aleatorio no observada compartida por todos los valores en el grupo I, y varepsilon ij es un término de ruido no observada."
Este es un modelo atractivo, especialmente porque en mis datos ningún evaluador ha calificado todas las cosas (aunque la mayoría ha calificado con más de 20), y las cosas tienen una cantidad variable de veces (generalmente 3-4).
Pregunta # 0: ¿Es el "grupo i" en ese ejemplo ("grupo i") una agrupación de cosas que están siendo calificadas?
Pregunta n. ° 1: Si estoy buscando confiabilidad entre evaluadores, ¿no necesito un modelo de efectos aleatorios con dos términos, uno para el evaluador y otro para la cosa calificada? Después de todo, ambos tienen una posible variación.
Pregunta # 2: ¿Cómo expresaría mejor este modelo en R?
Parece que esta pregunta tiene una propuesta atractiva:
lmer(measurement ~ 1 + (1 | subject) + (1 | site), mydata)
Miré un par de preguntas , y la sintaxis del parámetro "aleatorio" para lme es opaca para mí. Leí la página de ayuda de lme , pero la descripción de "aleatorio" es incomprensible para mí sin ejemplos.
Esta pregunta es algo similar a una larga lista de preguntas , siendo esta la más cercana. Sin embargo, la mayoría no aborda R en detalle.