Este es un término que proviene específicamente de Bayes empírico (EB), de hecho, el concepto al que se refiere no existe en la verdadera inferencia bayesiana. El término original era "fuerza de endeudamiento", que fue acuñado por John Tukey en la década de 1960 y popularizado por Bradley Efron y Carl Morris en una serie de artículos estadísticos sobre la paradoja de Stein y la EB paramétrica en las décadas de 1970 y 1980. Muchas personas ahora usan "préstamo de información" o "intercambio de información" como sinónimos del mismo concepto. La razón por la que puede escucharlo en el contexto de modelos mixtos es que los análisis más comunes para modelos mixtos tienen una interpretación EB.
EB tiene muchas aplicaciones y se aplica a muchos modelos estadísticos, pero el contexto siempre es que tiene una gran cantidad de casos (posiblemente independientes) y está tratando de estimar un parámetro particular (como la media o la varianza) en cada caso. En la inferencia bayesiana, se hacen inferencias posteriores sobre el parámetro basándose tanto en los datos observados para cada caso como en la distribución previa de ese parámetro. En la inferencia EB, la distribución previa para el parámetro se estima a partir de la colección completa de casos de datos, después de lo cual la inferencia continúa como para la inferencia bayesiana. Por lo tanto, cuando estima el parámetro para un caso particular, utiliza los datos para ese caso y también la distribución previa estimada, y este último representa la "información" o "fuerza"
Ahora puede ver por qué EB tiene "endeudamiento" pero Bayes verdadero no. En Bayes verdadero, la distribución previa ya existe y, por lo tanto, no necesita ser rogada o prestada. En EB, la distribución previa se ha creado a partir de los datos observados. Cuando hacemos inferencia sobre un caso particular, usamos toda la información observada de ese caso y un poco de información de cada uno de los otros casos. Decimos que es solo "prestado", porque la información se devuelve cuando pasamos a hacer inferencia sobre el próximo caso.
La idea de EB y "préstamo de información" se utiliza en gran medida en la genómica estadística, cuando cada "caso" suele ser un gen o una característica genómica (Smyth, 2004; Phipson et al, 2016).
Referencias
Efron, Bradley y Carl Morris. La paradoja de Stein en las estadísticas. Scientific American 236, no. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Smyth, GK (2004). Modelos lineales y métodos empíricos de Bayes para evaluar la expresión diferencial en experimentos de microarrays. Aplicaciones estadísticas en genética y biología molecular, volumen 3, número 1, artículo 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS y Smyth, GK (2016). La estimación robusta del hiperparámetro protege contra genes hipervariables y mejora el poder para detectar la expresión diferencial. Anales de Estadística Aplicada 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920