[Soci SLIP] wget
loredana
llcfree a gmail.com
Mar 2 Ago 2011 11:36:58 CEST
2011/8/2 Paolo Craveri <pcraveri a gmail.com>
> ciao a tutti
>
> vorrei scaricare tutti i files .pdf e .mp3 linkati a questo indirizzo:
>
> url="
> http://www.bbc.co.uk/worldservice/learningenglish/general/talkaboutenglish/2009/02/090211_tae_bltg.shtml
> "
>
> uso questo comando:
>
> wget -r -nd -l 2 -A mp3,pdf $url
>
> che perņ non fa quello che vorrei facesse: scaricare solo gli mp3 e i pdf,
> senza ricostruire la struttura delle directories.
>
Per evitare la ricostruzione delle sottodirectories ci sono
vari modi, per esempio aggiungi al tuo comando
-P <destinazione>
dove <destinazione> e' il nome della directory in cui
si accumuleranno tutti i files. Io ci metto sempre anche
-c che consente di riprendere dal punto in cui un download e' stato
interrotto anziche riscaricare l'intero
file.
> Dove sbaglio?
>
Nel cercare di scaricare tutti gli mp3 e i pdf da un sito
che ha il file robots.txt che wget rispetta e quindi non ti scarichera'
comunque nulla dalle directories che sono disabilitate in robots.txt.
robots.txt e' il modo standard per i siti per proteggersi
da quello che stai cercando di fare tu e tutti i comandi
tipo wget ne tengono conto.
Loredana
-------------- parte successiva --------------
Un allegato HTML č stato rimosso...
URL: http://mailman.pinerolo.linux.it/pipermail/soci/attachments/20110802/5dd165bb/attachment.html
Maggiori informazioni sulla lista
Soci