Este é um termo que é especificamente de Bayes empírico (EB), de fato, o conceito a que se refere não existe na verdadeira inferência bayesiana. O termo original era "força de empréstimo", que foi cunhada por John Tukey na década de 1960 e popularizada por Bradley Efron e Carl Morris em uma série de artigos estatísticos sobre o paradoxo de Stein e o EB paramétrico nas décadas de 1970 e 1980. Muitas pessoas agora usam "empréstimo de informações" ou "compartilhamento de informações" como sinônimos para o mesmo conceito. A razão pela qual você pode ouvi-lo no contexto de modelos mistos é que as análises mais comuns para modelos mistos têm uma interpretação EB.
O EB tem muitas aplicações e se aplica a muitos modelos estatísticos, mas o contexto sempre é que você tem um grande número de casos (possivelmente independentes) e está tentando estimar um parâmetro específico (como média ou variância) em cada caso. Na inferência bayesiana, você faz inferências posteriores sobre o parâmetro com base nos dados observados para cada caso e na distribuição anterior desse parâmetro. Na inferência EB, a distribuição anterior para o parâmetro é estimada a partir de toda a coleta de casos de dados, após o que a inferência procede como a inferência bayesiana. Portanto, quando você estima o parâmetro para um caso específico, usa os dados desse caso e também a distribuição anterior estimada, e o último representa a "informação" ou "força"
Agora você pode ver por que o EB tem "empréstimos", mas o verdadeiro Bayes não. No verdadeiro Bayes, a distribuição anterior já existe e, portanto, não precisa ser implorada nem emprestada. No EB, a distribuição anterior foi criada a partir dos próprios dados observados. Quando fazemos inferência sobre um caso específico, usamos todas as informações observadas desse caso e um pouco de informação de cada um dos outros casos. Dizemos que é apenas "emprestado", porque a informação é devolvida quando passamos a fazer inferência sobre o próximo caso.
A idéia de EB e "empréstimo de informações" é muito usada na genômica estatística, quando cada "caso" é geralmente um gene ou uma característica genômica (Smyth, 2004; Phipson et al, 2016).
Referências
Efron, Bradley e Carl Morris. O paradoxo de Stein na estatística. Scientific American 236, n. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Smyth, GK (2004). Modelos lineares e métodos empíricos de Bayes para avaliação da expressão diferencial em experimentos de microarrays. Aplicações Estatísticas em Genética e Biologia Molecular Volume 3, Edição 1, Artigo 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS e Smyth, GK (2016). A estimativa robusta de hiperparâmetros protege contra genes hipervariáveis e melhora o poder de detectar expressão diferencial. Annals of Applied Statistics 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920