Como salvar imagens em massa a partir de URLs


2

Eu tenho 1.200 URLs que apontam para imagens. Eu gostaria de salvá-los todos no meu disco rígido. Como posso fazer isso com uma operação em massa?


As urls das imagens são elas mesmas ou de páginas com imagens?
Unfundednut

Respostas:


0

Confira HTTrack para uma opção de interface gráfica. Se você não se importa em usar a linha de comando, wget pode aceitar um arquivo de texto como entrada (com o -i switch) contendo uma lista de URLs para download.


Acabei de testar o software, gosto muito do que ele faz, sabe como manter o nome do arquivo original? O nome do arquivo está no link, por exemplo, 1250757780.jpg e é desse link img / i.php? Type = i & amp; file = 1250757780.jpg
Chris

Em Preferências e opções de espelhamento vou ao construir aba. Check off the box esconder strings de consulta . Isso deve fazer o truque. Você também pode definir seu próprio formato de salvamento personalizado na guia criada depois de clicar opções .
John T

Na verdade, o problema é que ele salva nomes como: i76f3.jpg deve ser algo como: 1250757780.jpg
Chris

Eu encontrei um bom software, é PicaLoader, este tem uma opção para salvar a imagem com um nome completo de URL
Chris

Oh, você quer que eu adicione isso à minha resposta?
John T

0

No Unix ou no cygwin, você pode usar o wget para obter o conteúdo de uma url. Eu acredito em algo tão simples quanto cat list_of_urls.txt | wget provavelmente faria o que você precisa.


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.