Estoy ejecutando simulaciones de dinámica molecular (MD) usando varios paquetes de software, como Gromacs y DL_POLY.
Gromacs ahora admite los algoritmos de descomposición de partículas y de descomposición de dominio. Por defecto, las simulaciones de Gromacs utilizan la descomposición de dominio, aunque durante muchos años, hasta hace poco, la descomposición de partículas era el único método implementado en Gromacs. En uno de los documentos de Gromacs (DOI 10.1002 / jcc.20291), los autores dan una razón para su elección inicial de descomposición de partículas:
"Una decisión de diseño temprana fue la elección de trabajar con descomposición de partículas en lugar de descomposición de dominio para distribuir el trabajo entre los procesadores. En este último caso, los dominios espaciales se asignan a los procesadores, lo que permite encontrar vecinos espaciales rápidamente solo por comunicación local, pero las complicaciones se deben las partículas que se mueven sobre los límites espaciales son considerables. La descomposición del dominio es una mejor opción solo cuando el tamaño del sistema lineal excede considerablemente el rango de interacción, lo que rara vez ocurre en la dinámica molecular. Con la descomposición de partículas, cada procesador calcula las fuerzas y las actualizaciones de coordenadas / velocidad para una fracción asignada de las partículas, utilizando una lista de vecinos precalculada distribuida uniformemente sobre los procesadores. surge de la interacción del par entre las partículas y , que es necesaria para la actualización de la velocidad de ambas partículas y jj i j, se calcula solo una vez y se comunica a otros procesadores. Cada procesador mantiene en su memoria local el conjunto completo de coordenadas del sistema en lugar de restringir el almacenamiento a las coordenadas que necesita. Esto es más simple y ahorra gastos generales de comunicación, mientras que el reclamo de memoria generalmente no es un factor limitante, incluso para millones de partículas. La lista de vecinos, por otro lado, que puede contener hasta 1000 veces el número de partículas, se distribuye entre los procesadores. La comunicación está esencialmente restringida al envío de coordenadas y fuerzas una vez por vez alrededor del anillo del procesador. Estas opciones han demostrado ser robustas con el tiempo y fácilmente aplicables a los clústeres de procesadores modernos ".
¿Qué quieren decir con "tamaño del sistema lineal" en la oración "La descomposición del dominio es una mejor opción solo cuando el tamaño del sistema lineal excede considerablemente el rango de interacción, que rara vez ocurre en la dinámica molecular"? Del párrafo anterior, tengo la idea de que la descomposición de partículas tiene la ventaja de que uno no tiene que lidiar con partículas que se mueven a través de los límites del dominio; más bien, solo tiene que tener suficiente memoria para que cada procesador almacene la configuración total del sistema. Por lo tanto, la descomposición de partículas se ve muy favorable, mientras que la descomposición del dominio se ve muy desfavorable.
Estoy seguro de que esta es una pregunta muy complicada (y probablemente el tema de muchos libros), pero básicamente, si la descomposición de partículas parece tan favorable, ¿por qué alguien necesitaría usar la descomposición de dominio? ¿La descomposición del dominio es favorable si el tamaño del sistema es muy grande (lo que hace que sea difícil o imposible almacenar la configuración total en cada procesador)? Basado en el párrafo citado arriba, no estoy seguro de por qué la descomposición del dominio es ahora, recientemente, el algoritmo de paralelización predeterminado en Gromacs.
Parece que DL_POLY ahora (versión 4) también usa la descomposición del dominio. Del manual de la versión 4:
"La división de los datos de conguración de esta manera se basa en la ubicación de los átomos en la celda de simulación, tal asignación geométrica de los datos del sistema es el sello distintivo de los algoritmos DD. Tenga en cuenta que para que esta estrategia funcione de manera eficiente, el simulado el sistema debe poseer una densidad razonablemente uniforme, de modo que a cada procesador se le asigne casi una porción igual de datos de átomos (tanto como sea posible). Mediante este enfoque, el cálculo de las fuerzas y la integración de las ecuaciones de movimiento se comparten (razonablemente) por igual entre los procesadores y en gran medida se puede calcular de forma independiente en cada procesador. El método es conceptualmente simple aunque difícil de programar y es particularmente adecuado para simulaciones a gran escala, donde la eficiencia es más alta.
...
En el caso de la estrategia DD, el algoritmo SHAKE (RATTLE) es más simple que para el método de datos replicados de DL_POLY Classic), donde se requieren actualizaciones globales de las posiciones de los átomos (fusión y empalme) ".
Esto hace que parezca que la descomposición del dominio es buena porque puede ser más eficiente, aunque quizás sea más difícil de implementar.
Por otro lado, una versión anterior (DL_POLY Classic) utilizaba la paralelización de datos replicados, que parece ser otro nombre para la descomposición de partículas. Del manual de esa versión:
La estrategia de datos replicados (RD) es una de varias formas de lograr la paralelización en MD. Su nombre deriva de la replicación de los datos de configuración en cada nodo de una computadora paralela (es decir, las matrices que definen las coordenadas atómicas , velocidades y fuerzas , para todov i f i Nátomos en el sistema simulado, se reproducen en cada nodo de procesamiento). En esta estrategia, la mayoría del cálculo de las fuerzas y la integración de las ecuaciones de movimiento se pueden compartir fácilmente y por igual entre los nodos y, en gran medida, se pueden procesar de forma independiente en cada nodo. El método es relativamente simple de programar y es razonablemente eficiente. Además, puede "colapsarse" para ejecutarse en un único procesador con mucha facilidad. Sin embargo, la estrategia puede ser costosa en memoria y tener altos costos de comunicación, pero en general ha demostrado ser exitosa en una amplia gama de aplicaciones.
Este párrafo parece generalmente consistente con el primer párrafo de esta pregunta, excepto que dice que la descomposición de datos / partículas replicadas tiene "altos costos de comunicación". El párrafo del artículo de Gromacs parece decir lo contrario: esa descomposición de partículas es preferible porque tiene una sobrecarga de comunicación menor que la descomposición del dominio.
¿Que piensas?