Esta es una pregunta de diseño de software
Solía trabajar en la siguiente regla de velocidad
cache memory > memory > disk > network
Cada paso es 5-10 veces el paso anterior (por ejemplo, la memoria caché es 10 veces más rápida que la memoria principal).
Ahora, parece que Gigabit Ethernet tiene una latencia menor que el disco local. Por lo tanto, tal vez las operaciones para leer desde una base de datos remota en memoria grande sean más rápidas que las lecturas de disco local. Esto se siente como herejía para un viejo temporizador como yo. (Acabo de pasar un tiempo creando un caché local en el disco para evitar tener que hacer viajes de ida y vuelta a la red, de ahí mi pregunta)
¿Alguien tiene alguna experiencia / números / consejos en esta área?
Y sí, sé que la única forma real de averiguarlo es construir y medir, pero me preguntaba acerca de la regla general.
editar :
Estos son los datos interesantes de la respuesta principal:
Ida y vuelta dentro del mismo centro de datos 500,000 ns
Búsqueda de disco 10,000,000 ns
Esto es un shock para mí; Mi modelo mental es que un viaje de ida y vuelta en red es inherentemente lento. Y no lo es, es 10 veces más rápido que un disco 'ida y vuelta'.
Jeff attwood publicó este v buen blog sobre el tema http://blog.codinghorror.com/the-infinite-space-between-words/