Todas as respostas anteriores dependiam mais ou menos dos serviços existentes para ainda ter uma cópia desse feed ou do mecanismo de feed para poder fornecer itens mais antigos dinamicamente.
Porém, há outra maneira, reconhecidamente pró-ativa e bastante teórica de fazer isso: deixe seu feedreader usar um proxy de cache que semanticamente entende RSS e / ou Atom feeds e os armazena em cache por item até tantos itens quanto você configurar.
Se o feedreader não pesquisar feeds regularmente, o proxy pode buscar feeds conhecidos com base em seu próprio tempo para não perder um item em feeds altamente voláteis como o de User Friendly que tem apenas um item e muda todos os dias (ou pelo menos costumava fazer isso). Portanto, se o feedreadere.g. travou ou perdeu a conexão de rede enquanto você estava ausente por alguns dias, você pode perder itens no cache do leitor de feed. Ter o proxy para buscar esses feeds regularmente (por exemplo, de um data center em vez de em casa ou em um servidor em vez de um laptop) permite que você execute facilmente o feedreader somente então e quando sem perder os itens que foram postados após seu feedreader ter obtido os feeds da última vez, mas girou novamente antes de buscá-los na próxima vez.
Eu chamo esse conceito de Semantic Feed Proxy e implementei uma implementação de prova de conceito chamada sfp . Embora não seja muito mais do que uma prova de conceito, não o desenvolvi mais. (Eu ficaria feliz com dicas para projetos com ideias ou propósitos semelhantes. :-)