Complementando la respuesta de Evgeny con algunos ejemplos más.
Lo que quieres decir con tamaño de construcción puede importar un poco:
si es el tamaño de los artefactos que se están construyendo (cada uno individualmente o su tamaño combinado), eso podría importar en el almacenamiento de artefactos o en las operaciones de uso / despliegue si esas operaciones tienen límites de tamaño y se exceden. Por ejemplo, las aplicaciones de Google App Engine tienen tales límites de implementación ; si las implementaciones alcanzadas fallaran, consulte Error al implementar en Google App Engine .
si es el tamaño del espacio de trabajo en el que realiza la compilación, puede ser importante desde la perspectiva de gestión del espacio de trabajo. Incluso 2G puede ser significativo, por ejemplo, si está construyendo en un sistema de archivos RAM en una máquina con poca RAM. Pero algunas compilaciones podrían ser mucho más grandes: tuve que lidiar con espacios de trabajo de 500G + (cuando la mayoría de los discos de mi servidor estaban por debajo de 1T).
Si la compilación es parte de su canalización de CI / CD, cuanto mayor sea el tamaño de la compilación, mayor será el tiempo de ejecución de la canalización (realizar la compilación real y, si corresponde, archivar, implementar para probar, analizar en caso de falla, limpiar, etc.): cuanto más lento / riesgoso / costoso sea su desarrollo general.
Si alcanza un límite difícil, tendrá que ser creativo para solucionarlo (no siempre es simple / posible). Si es solo un golpe de rendimiento / costo, también tiene la opción de aceptarlo y vivir con él y / o abordarlo parcial / gradualmente.
Puede ser digno de distinguir entre:
- construcciones hinchadas: cuando el tamaño se incrementa innecesariamente, la solución del problema generalmente es posible al soltar partes innecesarias
- los casos en los que el contenido de la compilación en sí es lo que realmente se necesita (el tamaño no importa tanto) es necesario, la única forma de abordarlo es sacrificando alguna funcionalidad