Tem algum programa que "chupe" o conteúdo de um site?

Iniciado por velox256, 03 de Abril de 2009, 07:32

tópico anterior - próximo tópico

velox256

Existe algum programa pra Linux onde seja possível pegar o conteúdo completo (ou quase) de um site, nos moldes do Grab a Site ou Net Vampire do Windows? Há vezes em que, ao se salvar uma página para ser vista offline em uma máquina sem internet ativa, a página não abre.
Computador perereca, com disco perereca, monitor perereca e sistema super xuxu. Visitem a minha página em http://sidserra.k6.com.br ou meu blog em http://sidserra.blogspot.com.br.

rjbgbo

tem o Webtrack, que pode baixado pelo Adicionar/Remover Programas e também essa dica - http://www.guiadohardware.net/dicas/baixando-sites-wget.html
Mas sincera/ ñ são tão praticos.
Outros eu ñ conheço, até vou acompanhar esse tópico pois pode ter um outro software sugerido.
Linux User #440843 | Ubuntu User #11469

Kamei Hyoga

Dá uma olhada no man do wget ( man wget ) que é muito poderoso pra fazer isso que você quer.

achteutis

Citação de: velox256 online 03 de Abril de 2009, 07:32
Existe algum programa pra Linux onde seja possível pegar o conteúdo completo (ou quase) de um site, nos moldes do Grab a Site ou Net Vampire do Windows? Há vezes em que, ao se salvar uma página para ser vista offline em uma máquina sem internet ativa, a página não abre.

uma solução, talvez não das mais elegantes, mas que funciona, é um addon do firefox chamado pdfit, que transforma a página num pdf. pode transformar em imagens também, png. pode ser só a parte visualizada ou toda a página. detalhe ruim: a página toda vira uma página só em pdf. se for extensa, vira uma tripa enorme, ou seja, não dá pra imprimir, mas pra visualizar off line é perfecto.
Toshiba Satellite m302, core 2 duo 1.83Ghz, 3G de ram, chipset intel, Ubuntu Oneiric Oncelot (11.10) 32 bits.
Netiqueta: http://pt.wikipedia.org/wiki/Netiqueta
http://oquenaoestanogibi.wordpress.com/, blog crítico de HQ, no início.

SergioJP

Citação de: velox256 online 03 de Abril de 2009, 07:32
Existe algum programa pra Linux onde seja possível pegar o conteúdo completo (ou quase) de um site, nos moldes do Grab a Site ou Net Vampire do Windows? Há vezes em que, ao se salvar uma página para ser vista offline em uma máquina sem internet ativa, a página não abre.
Dá uma olhada aqui http://www.pplware.com/2009/03/26/linux-descarregar-um-site-e-ver-offline/
Espero que ajude.
Ubuntu Gnome 17.04 LTS GIGABYTE H61M-S1- CORE i3 - NVidia GT 420 - 12G RAM

advi

Acho que o programa que você quer é o HTtrack.

Há informações sobre ele em http://www.httrack.com/

E está disponível no repositório do Ubuntu.  ;D

Para instalá-lo, basta dar um sudo apt-get install httrack

Fui!
Ezcreve herrado é coiza de quem uza o IE6. Eu uso Firefox com dicionário de português! 8)

crixtiano


No shell:

Citar

$ wget -r http://www.seu_site_a_ser_chupado.com.br


leo2005

Realmente estou impressionado com este comando wget -r !!!!!
Puxa (chupa) tudo e muito rapidamente só colocando um -r depois do wget !!!

Kamei Hyoga

E se por acaso vc teve que parar a chupada (no bom sentido, por favor kkk), basta adicionar um -c que ele continua de onde parou.