Existen varias distinciones entre los modelos de regresión lineal y no lineal, pero la principal matemática es que los modelos lineales son lineales en los parámetros, mientras que los modelos no lineales son no lineales en los parámetros. Pinheiro y Bates (2000, pp. 284-285), autores del nlme
paquete R, describieron con elegancia las consideraciones más sustantivas en la selección del modelo:
Al elegir un modelo de regresión para describir cómo una variable de respuesta varía con las covariables, uno siempre tiene la opción de usar modelos, como los modelos polinómicos, que son lineales en los parámetros. Al aumentar el orden de un modelo polinomial, se pueden obtener aproximaciones cada vez más precisas a la función de regresión verdadera, generalmente no lineal, dentro del rango observado de los datos. Estos modelos empíricos se basan solo en la relación observada entre la respuesta y las covariables y no incluyen ninguna consideración teórica sobre el mecanismo subyacente que produce los datos. Los modelos no lineales, por otro lado, a menudo son mecanicistas, es decir, se basan en un modelo para el mecanismo que produce la respuesta. Como consecuencia, los parámetros del modelo en un modelo no lineal generalmente tienen una interpretación física natural. Incluso cuando se derivan empíricamente, los modelos no lineales generalmente incorporan características teóricas conocidas de los datos, como las asíntotas y la monotonicidad, y en estos casos, pueden considerarse como modelos semi-mecanísticos. Un modelo no lineal generalmente usa menos parámetros que un modelo lineal de la competencia, como un polinomio, dando una descripción más parsimoniosa de los datos. Los modelos no lineales también proporcionan predicciones más confiables para la variable de respuesta fuera del rango observado de los datos que, por ejemplo, los modelos polinómicos. dando una descripción más parsimoniosa de los datos. Los modelos no lineales también proporcionan predicciones más confiables para la variable de respuesta fuera del rango observado de los datos que, por ejemplo, los modelos polinómicos. dando una descripción más parsimoniosa de los datos. Los modelos no lineales también proporcionan predicciones más confiables para la variable de respuesta fuera del rango observado de los datos que, por ejemplo, los modelos polinómicos.
También hay algunas grandes diferencias entre los paquetes nlme y lme4 que van más allá del problema de la linealidad. Por ejemplo, usando nlme puede ajustar modelos lineales o no lineales y, para cualquier tipo, especificar las estructuras de varianza y correlación para los errores dentro del grupo (por ejemplo, autorregresivo); lme4 no puede hacer eso. Además, los efectos aleatorios se pueden corregir o cruzar en cualquier paquete, pero es mucho más fácil (y más eficiente desde el punto de vista computacional) especificar y modelar efectos aleatorios cruzados en lme4.
Aconsejaría primero considerar a) si necesitará un modelo no lineal, yb) si necesitará especificar la varianza dentro del grupo o las estructuras de correlación. Si alguna de estas respuestas es sí, entonces debe usar nlme (dado que se queda con R). Si trabaja mucho con modelos lineales que tienen efectos aleatorios cruzados, o combinaciones complicadas de efectos aleatorios anidados y cruzados, entonces lme4 es probablemente una mejor opción. Es posible que deba aprender a usar ambos paquetes. Primero aprendí lme4 y luego me di cuenta de que tenía que usar nlme porque casi siempre trabajo con estructuras de error autorregresivas. Sin embargo, todavía prefiero lme4 cuando analizo datos de experimentos con factores cruzados. La buena noticia es que gran parte de lo que aprendí sobre lme4 se transfirió bien a nlme. De cualquier manera,
Referencias
Pinheiro, JC y Bates, DM (2000). Modelos de efectos mixtos en S y S-PLUS . Nueva York: Springer-Verlag.