[Soci SLIP] wget

loredana llcfree a gmail.com
Mar 2 Ago 2011 11:36:58 CEST


2011/8/2 Paolo Craveri <pcraveri a gmail.com>

> ciao a tutti
>
> vorrei scaricare tutti i files .pdf e .mp3 linkati a questo indirizzo:
>
> url="
> http://www.bbc.co.uk/worldservice/learningenglish/general/talkaboutenglish/2009/02/090211_tae_bltg.shtml
> "
>
> uso  questo comando:
>
> wget -r -nd -l 2  -A mp3,pdf $url
>
> che perņ non fa quello  che vorrei facesse: scaricare solo gli mp3 e i pdf,
> senza ricostruire la struttura delle directories.
>

Per evitare la ricostruzione delle sottodirectories ci sono
vari modi, per esempio aggiungi al tuo comando

    -P <destinazione>

dove <destinazione> e' il nome della directory in cui
si accumuleranno tutti i files. Io ci metto sempre anche
-c che consente di riprendere dal punto in cui un download e' stato
interrotto anziche riscaricare l'intero
file.


> Dove sbaglio?
>

Nel cercare di scaricare tutti gli mp3 e i pdf da un sito
che ha il file robots.txt che wget rispetta e quindi non ti scarichera'
comunque nulla dalle directories che sono disabilitate in robots.txt.

robots.txt e' il modo standard per i siti per proteggersi
da quello che stai cercando di fare tu e tutti i comandi
tipo wget ne tengono conto.

Loredana
-------------- parte successiva --------------
Un allegato HTML č stato rimosso...
URL: http://mailman.pinerolo.linux.it/pipermail/soci/attachments/20110802/5dd165bb/attachment.html


Maggiori informazioni sulla lista Soci