Torrent vs wget --limit-rate vs curl --limit-rate


0

Tengo algunos archivos de datos enormes en una galaxia lejana. Necesito descargarlos, y es probable que tarde unos días. Si bien quiero asegurarme de que todos los datos se descarguen sanos y salvos, sin compromisos, también debo asegurarme de no consumir todo el ancho de banda ya que otras personas pueden necesitar acceder a esa máquina de forma remota.

Tengo dos alternativas me parece: wget --limit-rate=amount/ curl --limit-rate <speed>o un cliente CLI torrente rtorrent, transmissiono algo similar.

Soy un novato y me encantaría saber cuáles serían las ventajas de uno y otro. Además, ¿hay algún otro medio para descargar correctamente esos archivos monstruosos?


¿Están comprimidos los archivos de monstruos?
Alex

De hecho lo son. Targz piensa.
Zurdo G Balogh

Puede intentar usar rsync: rsync -chavzP --bwlimit=KBPS user@remote.host:/path/to/copy /path/to/local/storagesi tiene acceso SSH al servidor que aloja sus archivos.
Alex

Rsync tiene una opción de 'reanudar' en caso de que se detenga la descarga. Lea más aquí: unix.stackexchange.com/q/48298
Alex
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.