Una respuesta parcial a esto se encuentra en Gelman et al., Bayesian Data Analysis , 3rd ed.
El principio de Jeffreys puede extenderse a modelos multiparamétricos, pero los resultados son más controvertidos. Los enfoques más simples basados en suponer distribuciones previas independientes no informativas para los componentes del parámetro vectorial pueden dar resultados diferentes a los obtenidos con el principio de Jeffreys. Cuando el número de parámetros en un problema es grande, encontramos útil abandonar las distribuciones previas no informativas puras en favor de los modelos jerárquicos, como discutimos en el Capítulo 5.θ
Cuando Gelman escribe que los resultados son "controvertidos", creo que quiere decir que un previo que no es informativo en una dimensión tiende a ser fuertemente informativo en varias. Si la memoria funciona, este fue un reclamo hecho en la misma sección de BDA 2nd ed., Pero no tengo una copia conmigo en este momento.