curlsolo puede leer archivos de páginas web individuales, el montón de líneas que obtuvo es en realidad el índice del directorio (que también puede ver en su navegador si accede a esa URL). Para usar curly algunas herramientas mágicas de Unix para obtener los archivos, podría usar algo como
for file in $(curl -s http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/ |
grep href |
sed 's/.*href="//' |
sed 's/".*//' |
grep '^[a-zA-Z].*'); do
curl -s -O http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/$file
done
que llevará todos los archivos al directorio actual.
Para necesidades más elaboradas (incluida la obtención de un montón de archivos de un sitio con carpetas / directorios), wget(como ya se propuso en otra respuesta) es la mejor opción.
wget -r -np -k http://your.website.com/specific/directory. El truco es utilizar-kpara convertir los enlaces (imágenes, etc.) para la visualización local.