Eu quero usar o Wget para salvar páginas da Web únicas (não recursivamente, nem sites inteiros) para referência. Muito parecido com a "Página da Web do Firefox, completa".
Meu primeiro problema é: não consigo fazer com que o Wget salve as imagens de plano de fundo especificadas no CSS. Mesmo que ele salvasse os arquivos de imagem de plano de fundo, acho que --convert-links converteria os URLs da imagem de plano de fundo no arquivo CSS para apontar para as imagens de plano de fundo salvas localmente. O Firefox tem o mesmo problema.
Meu segundo problema é: se houver imagens na página que eu queira salvar que estejam hospedadas em outro servidor (como anúncios), elas não serão incluídas. --span-hosts não parece resolver esse problema com a linha abaixo.
Estou a usar:
wget --no-parent --timestamping --convert-links --page-requisites --no-directories --no-host-directories -erobots=off http://domain.tld/webpage.html