Realicé una evaluación por computadora de diferentes métodos para ajustar un tipo particular de modelo utilizado en las ciencias paleo. Tenía un conjunto de entrenamiento de gran tamaño y, por lo tanto, al azar (muestreo aleatorio estratificado) dejé de lado un conjunto de prueba. Ajusté diferentes métodos a las muestras del conjunto de entrenamiento y, utilizando los modelos resultantes, predije la respuesta para las muestras del conjunto de prueba y calculé un RMSEP sobre las muestras en el conjunto de prueba. Esta es una sola carrera .
Luego repetí este proceso una gran cantidad de veces, cada vez que elegí un conjunto de entrenamiento diferente al muestrear aleatoriamente un nuevo conjunto de prueba.
Una vez hecho esto, quiero investigar si alguno de los métodos tiene un rendimiento RMSEP mejor o peor. También me gustaría hacer comparaciones múltiples de los métodos por pares.
Mi enfoque ha sido ajustar un modelo de efectos lineales mixtos (LME), con un solo efecto aleatorio para Run . Utilicé lmer()
el paquete lme4 para adaptarme a mi modelo y las funciones del paquete multcomp para realizar las comparaciones múltiples. Mi modelo era esencialmente
lmer(RMSEP ~ method + (1 | Run), data = FOO)
donde method
es un factor que indica qué método se utilizó para generar las predicciones del modelo para el conjunto de pruebas y Run
es un indicador para cada ejecución particular de mi "experimento".
Mi pregunta es con respecto a los residuos de la LME. Dado el efecto aleatorio único para la ejecución, supongo que los valores RMSEP para esa ejecución están correlacionados en algún grado, pero no están correlacionados entre las ejecuciones, sobre la base de la correlación inducida que proporciona el efecto aleatorio.
¿Es válida esta suposición de independencia entre carreras? Si no es así, ¿hay alguna forma de explicar esto en el modelo LME o debería buscar otro tipo de análisis estático para responder a mi pregunta?