Tengo una tabla actualizada con frecuencia con 240 millones de filas (y en crecimiento). Cada tres horas se insertan 1,5 millones de filas y se eliminan 1,5 millones. Cuando moví el clúster a un SSD, este tiempo de inserción masiva (usando copia) se redujo de 22 minutos a 2,3 minutos. El tiempo de eliminación también se mejoró. Planeo hacer esta actualización masiva cada dos horas o cada hora.
Aunque el rendimiento ahora (después de SSD) es compatible con una actualización más frecuente, he leído algunas historias de horror sobre la muerte de SSD debido a la limitada resistencia NAND combinada con la amplificación de escritura. Como los SSD son caros, me gustaría llevar su muerte lo más lejos posible en el futuro. De ahí mi pregunta: ¿qué sucede realmente con el archivo del disco en un vacío y posterior vacío? Supongo que hay dos escrituras de disco, una para marcar la fila como eliminada y la otra al aspirar para marcarla como disponible para sobrescribir. Si en lugar de eliminar y aspirar particiono la tabla creando y soltando tablas en cada inserción / eliminación masiva, ¿estaría minimizando el desgaste del SSD?