Como disponibilizar offline o site / URL e as páginas filho associadas ao URL?
Por exemplo, eu quero que o android sdk no javadoc esteja disponível offline para que eu possa passar a qualquer momento, mesmo sem a Internet
Como disponibilizar offline o site / URL e as páginas filho associadas ao URL?
Por exemplo, eu quero que o android sdk no javadoc esteja disponível offline para que eu possa passar a qualquer momento, mesmo sem a Internet
Respostas:
Javadocs nada mais são do que simples páginas HTML geradas .
Portanto, você não precisa de nada sofisticado, mesmo um navegador local é suficiente se você quiser visualizá-lo.
Se você deseja hospedá-lo, qualquer servidor da web capaz de exibir páginas estáticas o fará.
Onde você pode baixá-lo?
O gerente do SDK o terá em Documentação.
Como alternativa, você pode obtê-los nos URLs:
Como:
https://dl-ssl.google.com/android/repository/docs-18_r02.zip
Substitua os números. (mesma convenção de nomenclatura, tente primeiro docs-19_r02.zip, depois -19_r01.zip, etc.).
Tenho certeza de que há uma lista em algum lugar, mas não consegui encontrá-la.
A maneira mais simples de fazer com que um URL funcione offline é configurar um servidor da Web localmente e hospedar os arquivos / recursos nele.
Assim, seu computador atuará como servidor da web para servir esses conteúdos.
Por que não usar o Wget ? Citando a partir da página:
O GNU Wget é um pacote de software gratuito para recuperar arquivos usando HTTP, HTTPS e FTP , os protocolos da Internet mais usados. É uma ferramenta de linha de comando não interativa, portanto pode ser chamada facilmente de scripts, tarefas cron, terminais sem suporte ao X-Windows, etc.
O GNU Wget possui muitos recursos para facilitar a recuperação de arquivos grandes ou o espelhamento de sites inteiros da Web ou FTP, incluindo:
- Pode retomar downloads abortados usando REST e RANGE
- Pode usar curingas de nome de arquivo e espelhar recursivamente diretórios
- Arquivos de mensagens baseados em NLS para vários idiomas diferentes
- Opcionalmente, converte links absolutos nos documentos baixados em relativos, para que os documentos baixados possam se vincular localmente
- É executado na maioria dos sistemas operacionais do tipo UNIX e no Microsoft Windows
- Suporta proxies HTTP
- Suporta cookies HTTP
- Suporta conexões HTTP persistentes
- Operação autônoma / em segundo plano
- Usa registros de data e hora de arquivos locais para determinar se os documentos precisam ser baixados novamente ao espelhar
- O GNU Wget é distribuído sob a Licença Pública Geral GNU.
Eu pessoalmente o usei para armazenar vários sites para visualizar ofine. Possui uma curva de aprendizado acentuada (devido a argumentos e afins), mas tem a capacidade de fazer tudo o que você deseja.
Há também uma porta do Wget para Windows , se você não tiver uma máquina UNIX.
Os possíveis argumentos que eu usaria para sua tarefa seriam algo como:
wget -r -p -k -np -w 1 http://developer.android.com/reference/
Explicando os comandos:
-r
- Define a recuperação recursiva (ou seja, ele obterá qualquer link existente nessa página e assim por diante)-p
- Faz o download de tudo o necessário para que a página seja exibida corretamente-k
- Converte os links nos documentos para torná-los adequados para visualização local-np
- Nunca suba ao diretório pai ao recuperar recursivamente (ou seja, não volte)-w 1
- Aguarda 1 segundo entre cada recuperação. Isso é útil para não sobrecarregar o servidor com solicitações, o que pode causar erros 404 e outras coisas.O uso do argumento é obtido no manual . Eu não executei isso, então não posso dizer com certeza que ele rastreará adequadamente, mas com alguns ajustes, isso funcionaria.