Nós estamos usando HTTRACK para baixar um site inteiro para visualização off-line.
O problema é até baixar todo o site com o nível 4 ( -r4 ) alguns links não funcionam.
Por exemplo, se você usar o httrack para capturar o site:
http://advaitasharada.sringeri.net/display/bhashya/Gita
Ele captura apenas uma parte dele, mas deixa os links do lado direito. Os outros links contendo os outros capítulos do Gita estão marcados com #fragments.
http://advaitasharada.sringeri.net/display/bhashya/Gita#BG_C02 (o link só funciona quando clicado no navegador)
- Por que não
HTTRACKbaixar todos os links? O que fazer? - Também o
searchnão está funcionando. Isso leva ao domínio original do site (que precisa de conexão com a Internet).
wget, mas não estava funcionando. Tamanho não é um problema. Eu dei -r6 e HTTRACK baixou 6,6 GB! Deus sabe como tem tantos dados! Você poderia por favor postar o wget comando que você usou como resposta? Você já verificou que os links do lado direito do site estão funcionando?