Es la diferencia entre el valor decimal y el prefijo binario .
En este caso, está diciendo que está utilizando 0 bytes binarios.
¿Cual es la diferencia?
Usando "Giga" como nuestro ejemplo, significa 1000 3 de algo (es decir, Gigahertz).
En las computadoras plantea un problema interesante:
Un Gigabyte es 1000 3 bytes. Sin embargo, un byte es de 8 bits (binarios). Lo que significa que técnicamente es 1024 3 bytes. Para dar cuenta de esto, utilizamos notación diferente:
- Giga es decimal (base 10)
- Gibi es binario (base 2)
La salida te dice que está usando unidades binarias.
Si desea obtener la salida en "notación decimal legible por humanos", use una "H" mayúscula:
$ df -H
/dev/disk2 1.1T 413G 706G 37% 100935848 172431606 37%
map auto_home 0B 0B 0B 100% 0 0 100% /home
Finalmente, en realidad no es una convención de Apple, sino una de BSD (es un comando BSD). Puede encontrar más información en la página de manual ( man df
).
df -H
? RTM: lah
salida de opción es base 2 y laH
salida de opción es base 10.