Respostas:
Você pode usar o wget
comando para baixar a página e lê-la em uma variável como:
content=$(wget google.com -q -O -)
echo $content
Usamos a -O
opção wget
que nos permite especificar o nome do arquivo no qual wget
despeja o conteúdo da página. Especificamos -
para obter o dump na saída padrão e coletá-lo na variável content
. Você pode adicionar o-q
opção silenciosa para desligar a saída do wget.
Você também pode usar o comando curl para isso:
content=$(curl -L google.com)
echo $content
Precisamos usar a -L
opção, pois a página que estamos solicitando pode ter sido movida. Nesse caso, precisamos obter a página do novo local. A opção -L
ou --location
nos ajuda com isso.
src
atributo do elemento correto e, em seguida, baixar essa página. Se você instalar tq , este comando deve fazê-lo:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
com -O-
opção. Está falhando com erro -k can be used together with -O only if outputting to a regular file.
. É esperado?
Existem muitas maneiras de obter uma página a partir da linha de comando ... mas também depende se você deseja o código-fonte ou a própria página:
Se você precisar do código-fonte:
com curl:
curl $url
com wget:
wget -O - $url
mas se você deseja obter o que pode ver com um navegador, o lynx pode ser útil:
lynx -dump $url
Acho que você pode encontrar tantas soluções para este pequeno problema, talvez você deva ler todas as páginas de manual para esses comandos. E não se esqueça de substituir $url
pelo seu URL :)
Boa sorte :)
Existe o wget
comando ou o curl
.
Agora você pode usar o arquivo baixado com o wget. Ou você pode lidar com um fluxo com curl.
Recursos :
content=`wget -O - $url`
Se você tiver o LWP instalado, ele fornece um binário chamado simplesmente " GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transitional // EN"> <HTML> <HEAD> <META http-equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Exemplo de página da web </TITLE> </HEAD> <body> <p> Você acessou esta página da web digitando & quot; example.com & quot ;, & quot; example.net & quot;, & quot; example.org & quot ou? exemplo.edu? em seu navegador da web. </p> <p> Esses nomes de domínio são reservados para uso na documentação e não estão disponíveis Para Registro. Consulte <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, Seção 3. </p> </BODY> </HTML>
wget -O-
, curl
e lynx -source
se comportam de maneira semelhante.
Você pode usar curl
ou wget
para recuperar os dados brutos ou pode usar w3m -dump
para ter uma bela representação de texto de uma página da web.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.