Fórum Ubuntu Linux - PT
Suporte Técnico => Programação e Scripts => Tópico iniciado por: Lukkas em 30 de Julho de 2007, 12:52
-
Boa tarde ubunteiros de bom coração!
Na noite passada eu descobri as delícias do wget (http://www.gnu.org/software/wget/manual/wget.html), a ferramenta de download não interativa que permite baixar arquivos grandes e até mesmo espelhar sites inteiros localmente. Surgiu uma dúvida quanto a seu uso que eu ainda não solucionei.
Supomos que eu queira, por exemplo, salvar uma galeria de imagens que está no site. São vários albums que estão no formato http://url.do.site/diretorio_de_albuns/album_xyz/foto.jpg
Eu, preguiçoso e cretino, quero salvar tudo que está em todos os albuns. Pela lógica eu tentei usar
wget -r -A=jpg,jpeg,gif http://url.do.site/diretorio_de_albuns/
(salvar recursivamente tudo que está no diretorio_de_albuns e subdiretórios, aceitando apenas arquivos do tipo imagem)
Agora, o problema: não funcionou. Ele salvou UM MONTE de lixo, html, páginas e consultas php... como me livro disto? Por exemplo, ele salvou arquivos do tipo arquivo.php?variavel=valor
Agora, abusando ainda mais da boa vontade dos senhores.
Existem nos diretórios arquivos de nome thumb_***.jpg, que são thumbnails. Como posso ignorá-los usando a opção --reject? É possível?
Obrigado desde já por toda e qualquer ajuda ;-)
-
Amigo, por favor, retire o "SOCORRO" do título do tópico, está contra as normas de utilização do fórum.
Vlw,
AsA.
-
O nome dos arquivos de imagem seguem um padrão?
Se, por exemplo, seguirem o padrão foto1.jpg, foto2.jpg,...,foto10.jpg dá pra fazer um script usando o "for". Fica mais ou menos assim:
#!/bin/bash
for num in `seq 1 10`
do
wget -c http://url.do.site/diretorio_de_albuns/album_xyz/foto$num.jpg
done
[]s.
-
Valew Floyd, isto já é de grande ajuda!
Abração!