Tengo un gran contenido estático que tengo que entregar a través de un servidor web basado en Linux. Es un conjunto de más de un millón de pequeños archivos gzip. El 90% de los archivos tienen menos de 1K y los archivos restantes tienen como máximo 50K. En el futuro, esto podría crecer a más de 10 millones de archivos gzip.
¿Debo poner este contenido en una estructura de archivos o debería considerar poner todo este contenido en una base de datos? Si está en una estructura de archivos, ¿puedo usar directorios grandes o debería considerar directorios más pequeños?
Me dijeron que una estructura de archivos sería más rápida para la entrega, pero por otro lado, sé que los archivos ocuparán mucho espacio en el disco, ya que los bloques de archivos serán más de 1K.
¿Cuál es la mejor estrategia con respecto al rendimiento de entrega?
ACTUALIZAR
Para los registros, he realizado una prueba en Windows 7, con medio millón de archivos: