Todas las respuestas anteriores dependían más o menos de los servicios existentes para tener una copia de ese feed o del motor de feed para poder proporcionar elementos más antiguos de forma dinámica.
Sin embargo, hay otra forma, ciertamente proactiva y bastante teórica de hacerlo: deje que su lector de feeds use un proxy de almacenamiento en caché que entienda semánticamente los feeds RSS y / o Atom y los almacene en caché por elemento hasta tantos elementos como usted configure.
Si el lector de feeds no sondea los feeds con regularidad, el proxy podría obtener feeds conocidos basándose en el tiempo por sí solo para no perder un elemento en feeds altamente volátiles como el de User Friendly que tiene solo un elemento y cambia todos los días (o al menos solía hacerlo). Por lo tanto, si el feedreadere.g. se bloqueó o perdió la conexión de red mientras está ausente durante unos días, es posible que pierda elementos en la memoria caché de su lector de feeds. Tener el proxy para obtener esos feeds con regularidad (por ejemplo, de un centro de datos en lugar de su casa o en un servidor en lugar de una computadora portátil) le permite ejecutar fácilmente el lector de feeds solo en ese momento y cuando sin perder los elementos que se publicaron después de que su lector de feeds obtuvo los feeds. la última vez, pero rotó de nuevo antes de buscarlos la próxima vez.
A ese concepto lo llamo Semantic Feed Proxy y he implementado una implementación de prueba de concepto llamada sfp . Aunque no es mucho más que una prueba de concepto y no lo he desarrollado más. (Por lo tanto, estaría feliz con sugerencias para proyectos con ideas o propósitos similares. :-)