curl
solo puede leer archivos de páginas web individuales, el montón de líneas que obtuvo es en realidad el índice del directorio (que también puede ver en su navegador si accede a esa URL). Para usar curl
y algunas herramientas mágicas de Unix para obtener los archivos, podría usar algo como
for file in $(curl -s http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/ |
grep href |
sed 's/.*href="//' |
sed 's/".*//' |
grep '^[a-zA-Z].*'); do
curl -s -O http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/$file
done
que llevará todos los archivos al directorio actual.
Para necesidades más elaboradas (incluida la obtención de un montón de archivos de un sitio con carpetas / directorios), wget
(como ya se propuso en otra respuesta) es la mejor opción.
wget -r -np -k http://your.website.com/specific/directory
. El truco es utilizar-k
para convertir los enlaces (imágenes, etc.) para la visualización local.