Máquina: Dell r815, CentOS 5.4, 256 GB de RAM, 4 x 12 núcleos.
Tenemos una aplicación que tiene un archivo de 275GB. Realiza una clasificación in situ de 20 GB de datos a la vez, es decir, intercambia bits y los reemplaza en el mismo archivo. Todo esto funciona bien.
Hay un último paso que luego lee todo el archivo y hace una fusión en los diferentes fragmentos de 20 GB, y los envía a un archivo completamente nuevo.
Este proceso parece funcionar bien por un tiempo y termina vaciando alrededor de 50 GB en el disco. Algún tiempo después de esto, TODA la máquina comienza a enloquecer.
Comandos simples como ps -ef
, ls -al
cuelgan durante mucho tiempo y aparecen como CPU 100% (que es solo un núcleo).
Mirando las estadísticas de memoria top
, veo que está usando alrededor de 120 GB de RAM (128 GB gratis) y tiene 120 GB en la sección "en caché".
¿Alguien ha visto este tipo de comportamiento antes? El mismo proceso funciona bien en una máquina con 64 GB de memoria, por lo que de alguna manera creo que está relacionado con el montaje de RAM que tengo en la máquina.
(mientras hablamos, estoy ejecutando la prueba en esta máquina con todos menos 64 GB, para descartar un problema de hardware).
¿Tal vez me estoy perdiendo algunos parámetros de VM /etc/sysctrl.conf
?
¡Gracias!