Uma resposta parcial para isso é encontrada em Gelman et al., Bayesian Data Analysis , 3a ed.
O princípio de Jeffreys pode ser estendido aos modelos multiparâmetros, mas os resultados são mais controversos. Abordagens mais simples, baseadas na suposição de distribuições anteriores não informativas independentes para os componentes do parâmetro vetorial podem fornecer resultados diferentes dos obtidos com o princípio de Jeffreys. Quando o número de parâmetros em um problema é grande, achamos útil abandonar distribuições prévias não informativas puras em favor de modelos hierárquicos, conforme discutimos no Capítulo 5.θ
Quando Gelman escreve que os resultados são "controversos", acredito que ele quer dizer que um prior que não é informativo em uma dimensão tende a se tornar fortemente informativo em várias. Se a memória serve, essa foi uma reivindicação feita na mesma seção do BDA 2ª ed., Mas não tenho uma cópia comigo no momento.