Tenemos una aplicación que consulta una base de datos SQL periódicamente durante todo el día. Hay períodos de cero o solo actividad ligera, intercalados con solicitudes individuales de cantidades relativamente grandes de datos. Cuando llegan esas solicitudes, el objetivo principal es entregar los datos rápidamente, y el objetivo secundario es hacerlo de manera rentable. Debido a la naturaleza de la aplicación, es bastante improbable que los datos / índices se hayan almacenado en la memoria caché de la consulta anterior (diferentes usuarios, trabajando en diferentes partes de los datos).
Para un sistema que experimenta un uso relativamente constante, he escuchado la regla general para observar la longitud de la cola del disco y mantener ese número relativamente pequeño. Esto se ejecutará específicamente en AWS, donde he visto la regla general de que una longitud de cola de disco de 1 por 100 IOPS es razonable.
¿Cómo puedo estimar los requisitos de IO para dicho sistema? ¿La longitud de la cola del disco es un indicador confiable cuando se trata de consultas individuales en ráfagas? ¿Hay otras métricas que debería considerar?