Tengo algunos archivos de datos enormes en una galaxia lejana. Necesito descargarlos, y es probable que tarde unos días. Si bien quiero asegurarme de que todos los datos se descarguen sanos y salvos, sin compromisos, también debo asegurarme de no consumir todo el ancho de banda ya que otras personas pueden necesitar acceder a esa máquina de forma remota.
Tengo dos alternativas me parece: wget --limit-rate=amount
/ curl --limit-rate <speed>
o un cliente CLI torrente rtorrent
, transmission
o algo similar.
Soy un novato y me encantaría saber cuáles serían las ventajas de uno y otro. Además, ¿hay algún otro medio para descargar correctamente esos archivos monstruosos?
¿Están comprimidos los archivos de monstruos?
—
Alex
De hecho lo son. Targz piensa.
—
Zurdo G Balogh
Puede intentar usar rsync:
—
Alex
rsync -chavzP --bwlimit=KBPS user@remote.host:/path/to/copy /path/to/local/storage
si tiene acceso SSH al servidor que aloja sus archivos.
Rsync tiene una opción de 'reanudar' en caso de que se detenga la descarga. Lea más aquí: unix.stackexchange.com/q/48298
—
Alex