Eu nunca tinha ouvido falar do livro Barber antes, mas, depois de dar uma olhada rápida, parece muito, muito bom.
A menos que você tenha um campo específico em que deseja pesquisar, sugiro o seguinte (alguns / muitos dos quais você provavelmente já ouviu falar):
- Teoria da informação, inferência e algoritmos de aprendizagem, por DJC Mackay. Um clássico, e o autor disponibiliza um arquivo .pdf gratuitamente on-line, para que você não tenha desculpa.
- Reconhecimento de Padrões e Aprendizado de Máquina, por CMBishop. Citado com frequência, embora pareça haver muito cruzamento entre este e o livro Barber.
- Teoria da probabilidade, a lógica da ciência, por ETJaynes. Em algumas áreas, talvez um pouco mais básico. No entanto, as explicações são excelentes. Descobri que havia esclarecido alguns mal-entendidos que eu nem sabia que tinha.
- Elementos da teoria da informação, de TM Cover e JAThomas. Ataca a probabilidade da perspectiva de, sim, você adivinhou, teoria da informação. Algumas coisas muito interessantes sobre a capacidade do canal e o máximo de ent. Um pouco diferente das coisas mais bayesianas (só me lembro de ter visto uma antes em todo o livro).
- Teoria Estatística da Aprendizagem, de V.Vapnik. Completamente não-baysiano, o que pode não lhe agradar. Concentra-se no limite superior provável do risco estrutural. Explica de onde vêm as máquinas de vetores de suporte.
- Sir Karl Popper produziu uma série de trabalhos sobre a filosofia das descobertas científicas, que apresentam muitas estatísticas (coleções podem ser compradas, mas não tenho títulos em mãos - desculpas). Novamente, nem um pouco bayesiano, mas sua discussão sobre falsificabilidade e sua relação com a navalha de Ocams é (na minha opinião) fascinante e deve ser lida por qualquer pessoa envolvida na ciência.