¿Cómo los sitios como Facebook y Twitter optimizan sus sitios para el tráfico masivo? Además de gastar mucho dinero en obtener los mejores servidores, ¿qué se puede optimizar en su código para acomodar el tráfico masivo?
He leído sobre el almacenamiento en caché de sus páginas en HTML estático, pero eso no es práctico para los sitios de redes sociales donde las páginas se actualizan constantemente.
Si obtiene un acceso promedio de 10000 por segundo, incluso un almacenamiento en caché de 1 segundo le ahorrará 9999 procesos de secuencia de comandos.
Puede que también le interese esto (no puedo encontrar la publicación original de los propietarios de SO): highscalability.com/blog/2009/8/5/…