En nuestra infraestructura de VM, tenemos hosts agrupados que van a una SAN.
Lo que estoy tratando de averiguar es cuánto "espacio en blanco" queda al eliminar archivos dentro de nuestros servidores Redhat. En nuestro servidor de Windows usamos sdelete y eso soluciona ese problema, sin embargo, con Linux me cuesta encontrar una solución.
¿Estoy definiendo el "espacio en blanco" como los sectores? sobra que no se ponen a cero que las unidades SSD tienen que poner a cero primero antes de que puedan escribir en él.
Una cosa que señalaré es que cuando se trata de Linux, sé lo suficiente como para ser peligroso, pero no soy un súper usuario.
Mirando por encima de las unidades y particiones:
[root@rhserver1-DATA10 /]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 104857599 51915776 8e Linux LVM
Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Ahora mirando el uso del disco:
[root@rhserver1-DATA10 /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% /
devtmpfs 906M 0 906M 0% /dev
tmpfs 921M 340K 920M 1% /dev/shm
tmpfs 921M 90M 831M 10% /run
tmpfs 921M 0 921M 0% /sys/fs/cgroup
/dev/sdb 50G 3.5G 44G 8% /ACMS01Backup
/dev/sda1 497M 210M 288M 43% /boot
tmpfs 185M 20K 185M 1% /run/user/1000
tmpfs 185M 0 185M 0% /run/user/1002
Después de muchas horas de búsqueda en Google, encontré esto, creo que me muestra cuánto espacio en blanco está disponible para ser eliminado.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%
Creo que una salida razonable para una partición 497M.
Así que ahora quiero hacer lo mismo solo en mi unidad montada (creo que está montada).
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
Lo que no me da nada.
Mi / etc / fstab /:
[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0
/dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
Entonces mi pregunta es ¿estoy en el camino correcto?
¿Te expliqué bien lo que estoy buscando?
¿Existe algún término para "espacio en blanco" que pueda ayudarme a buscar en Google?
He descubierto que puedo ejecutar "fstrim -v /" en la raíz, pero realmente me gustaría saber cuánto espacio hay.
También estoy tratando de descubrir que estos sistemas de producción requieren una gran cantidad de E / S, ¿deberían ejecutarse en las horas pico?
¿Alguna posibilidad de pérdida de datos al ejecutar "fstrim -v /"?
blkid
y ver si puede obtener el UUID y volver a ejecutar el parted
comando.
discard
opción de montaje en los sistemas de archivos.