Tenemos 8 servidores API REST-ish con Nginx que usan FastCGI con PHP-FPM para manejar solicitudes. Actualmente estamos utilizando el almacenamiento en caché FastCGI de Nginx (como directivas fastcgi_cache_path
). Esto significa que las respuestas de la API se almacenan en caché, pero hay una caché separada para cada servidor.
¿Hay una buena manera de compartir el almacenamiento en caché entre los ocho servidores?
Hemos considerado usar Redis como almacenamiento compartido, pero los módulos disponibles parecen requerir cambios en la aplicación. En algunos casos, es posible que deseemos almacenar en caché las respuestas fuera de nuestro control (sobre HTTP a API externas). Idealmente, un reemplazo directo para el almacenamiento en caché integrado de Nginx de FastCGI y respuestas HTTP estaría disponible.