Me gustaría descargar una copia local de una página web y obtener todos los css, imágenes, javascript, etc.
En debates anteriores (por ejemplo, aquí y aquí , los cuales tienen más de dos años), generalmente se presentan dos sugerencias: wget -p
y httrack . Sin embargo, estas sugerencias fallan. Agradecería mucho la ayuda con el uso de cualquiera de estas herramientas para realizar la tarea; Las alternativas también son encantadoras.
Opción 1: wget -p
wget -p
descarga con éxito todos los requisitos previos de la página web (css, images, js). Sin embargo, cuando cargo la copia local en un navegador web, la página no puede cargar los requisitos previos porque las rutas a esos requisitos previos no se han modificado desde la versión en la web.
Por ejemplo:
- En el html de la página,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
deberá corregirse para apuntar a la nueva ruta relativa defoo.css
- En el archivo css,
background-image: url(/images/bar.png)
será necesario ajustarlo de manera similar.
¿Hay alguna forma de modificar wget -p
para que las rutas sean correctas?
Opción 2: httrack
httrack
Parece una gran herramienta para duplicar sitios web completos, pero no me queda claro cómo usarlo para crear una copia local de una sola página. Existe una gran discusión en los foros de httrack sobre este tema (por ejemplo, aquí ), pero nadie parece tener una solución a prueba de balas.
Opción 3: otra herramienta?
Algunas personas han sugerido herramientas pagas, pero no puedo creer que no haya una solución gratuita disponible.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- solo esto funcionó para mí. Crédito: superuser.com/a/136335/94039