Quiero descargar un sitio web completo (con subsitios). ¿Hay alguna herramienta para eso?
--convert-links
en wget) no revelarán sitios que solo se revelan mediante el envío de un formulario, entre otras cosas.
Quiero descargar un sitio web completo (con subsitios). ¿Hay alguna herramienta para eso?
--convert-links
en wget) no revelarán sitios que solo se revelan mediante el envío de un formulario, entre otras cosas.
Respuestas:
Pruebe el ejemplo 10 desde aquí :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: activa las opciones adecuadas para duplicar.
-p
: descargue todos los archivos necesarios para mostrar correctamente una página HTML determinada.
--convert-links
: después de la descarga, convierta los enlaces en el documento para su visualización local.
-P ./LOCAL-DIR
: guarda todos los archivos y directorios en el directorio especificado.--wait=seconds
argumento si desea ser más amigable con el sitio; esperará el número de segundos especificado entre recuperaciones.
httrack es la herramienta que estás buscando.
HTTrack le permite descargar un sitio de la World Wide Web de Internet a un directorio local, creando recursivamente todos los directorios, obteniendo HTML, imágenes y otros archivos del servidor a su computadora. HTTrack organiza la estructura de enlaces relativa del sitio original.
Con wget
usted puede descargar un sitio web completo, debe usar el -r
interruptor para una descarga recursiva . Por ejemplo,
wget -r http://www.google.com
WEBHTTRACK WEBSITE COPIER es una herramienta útil para descargar un sitio web completo en su disco duro para navegar sin conexión. Inicie el centro de software ubuntu y escriba "webhttrack website copier" sin las comillas en el cuadro de búsqueda. selecciónelo y descárguelo del centro de software en su sistema. inicie webHTTrack desde el menú de inicio o desde el menú de inicio, desde allí puede comenzar a disfrutar de esta gran herramienta para las descargas de su sitio
No sé acerca de los subdominios, es decir, los subsitios, pero wget se puede usar para obtener un sitio completo. Echa un vistazo a la pregunta de este superusuario . Dice que puede usar -D domain1.com,domain2.com
para descargar diferentes dominios en un solo script. Creo que puedes usar esa opción para descargar subdominios, es decir-D site1.somesite.com,site2.somesite.com
Uso Burp : la herramienta de araña es mucho más inteligente que wget y se puede configurar para evitar secciones si es necesario. Burp Suite en sí es un poderoso conjunto de herramientas para ayudar en las pruebas, pero la herramienta araña es muy efectiva.
Puede descargar todo el comando del sitio web:
wget -r -l 0 website
Ejemplo:
wget -r -l 0 http://google.com
Si la velocidad es una preocupación (y el bienestar del servidor no lo es), puede probar puf , que funciona como wget pero puede descargar varias páginas en paralelo. Sin embargo, no es un producto terminado, no mantenido y horriblemente indocumentado. Aún así, para descargar un sitio web con muchos archivos pequeños, esta podría ser una buena opción.