Preguntas etiquetadas con wget

wget: utilidad de línea de comandos para descargar contenido de manera no interactiva (se puede llamar desde scripts, trabajos cron, terminales sin el soporte de X-Windows, etc.)



2
¿Ignorar "otros" dominios al descargar con wget?
Me gustaría rastrear enlaces en www.website.com/XYZ y solo descargar los enlaces que están en www.website.com/ABC. Estoy usando el siguiente comando wget para obtener los archivos que quiero: wget -I ABC -r -e robots=off --wait 0.25 http://www.website.com/XYZ Esto funciona perfectamente cuando uso wget 1.13.4. Pero el problema es que tengo que …



2
Alternativas a wget
Tengo un sitio en un servidor que es básicamente un montón de páginas HTML, imágenes y sonidos. He perdido mi contraseña en ese servidor y necesito tomar todo lo que está almacenado allí. Puedo ir página por página y guardar todo, pero el sitio tiene más de 100 páginas. Estoy …
13 wget 

1
¿Cómo evitar los encabezados faltantes de 'última modificación'?
Estoy corriendo wgetasí: wget --mirror --adjust-extension --convert-links --no-cookies http://tshepang.net -o log-main Recibo un montón de estos mensajes: Last-modified header missing -- time-stamps turned off. Supongo que eso significa que las páginas se vuelven a descargar, a pesar de que las tengo localmente. NOTA : Quiero esto para no tener que …
13 wget  web 

2
¿Wget devuelve binario en lugar de html?
Estoy usando wget para descargar una página html estática. El validador W3C me dice que la página está codificada en UTF-8. Sin embargo, cuando atrapo el archivo después de la descarga, obtengo un montón de tonterías binarias. ¿Estoy en Ubuntu y pensé que la codificación predeterminada era UTF-8? Eso es …

2
Wget: convertir enlaces y evitar volver a descargar archivos ya recuperados?
Estoy descargando datos distribuidos entre múltiples archivos que no cambian una vez publicados. Por --timestampinglo tanto, no es lo suficientemente bueno, ya que está comprobando constantemente cualquier recurso que se cambie, lo que, en mi caso, es completamente inútil. --no-clobberencajaría perfectamente. Desafortunadamente no funciona con --convert-links por alguna razón. Se …
12 wget  download 


3
montaje de dropbox (para explorar los archivos)
Quiero simplemente poder explorar un sistema de archivos de Dropbox, sin mucha carga adicional en la CPU, memoria, almacenamiento (es decir, sin guardar copias de los archivos remotos localmente). Parece que el cliente oficial consume muchos recursos (y haría operaciones innecesarias como la sincronización): http://www.lowendtalk.com/discussion/3179/dropbox-memory-usage-on-linux . Se puede simplemente montarlo …

5
¿Cómo se detiene 'wget' después de que obtiene un 404?
Si utiliza la expansión de llaves con wget, puede obtener imágenes numeradas secuencialmente con facilidad: $ wget 'http://www.iqandreas.com/sample-images/100-100-color/'{90..110}'.jpg' Obtiene los primeros 10 archivos numerados 90.jpgpara que 99.jpgestén bien, pero 100.jpgluego devuelve un error 404: Archivo no encontrado (solo tengo 100 imágenes almacenadas en el servidor). Estos archivos inexistentes se vuelven …

2
¿Cuál es el "artículo 2001" para bloquear los "programas de recuperación automatizados" a los que se refiere la página de manual de wget?
La wgetpágina man indica esto, en la sección para el --random-waitparámetro: Some web sites may perform log analysis to identify retrieval programs such as Wget by looking for statistically significant similarities in the time between requests. [...] A 2001 article in a publication devoted to development on a popular consumer …

1
Wget, abortar reintentar después de un error o tiempo de espera
Estoy llamando a una url con wget: /usr/bin/wget --read-timeout=7200 https://site_url/s Wget realiza una solicitud GET cada 15 minutos en este caso, a pesar del tiempo de espera establecido, ¿por qué sucede esto? La llamada solo debe hacerse una vez, ¿cómo puedo configurar wget para NO reintentar? Sé que puedes configurarlo, …
11 linux  rhel  wget 


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.