Aterrissei nesta página tentando descobrir uma maneira sensata de validar strings como urls "válidas". Eu compartilho aqui minha solução usando python3. Nenhuma biblioteca extra necessária.
Consulte https://docs.python.org/2/library/urlparse.html se estiver usando python2.
Consulte https://docs.python.org/3.0/library/urllib.parse.html se você estiver usando python3 como eu.
import urllib
from pprint import pprint
invalid_url = 'dkakasdkjdjakdjadjfalskdjfalk'
valid_url = 'https://stackoverflow.com'
tokens = [urllib.parse.urlparse(url) for url in (invalid_url, valid_url)]
for token in tokens:
pprint(token)
min_attributes = ('scheme', 'netloc') # add attrs to your liking
for token in tokens:
if not all([getattr(token, attr) for attr in min_attributes]):
error = "'{url}' string has no scheme or netloc.".format(url=token.geturl())
print(error)
else:
print("'{url}' is probably a valid url.".format(url=token.geturl()))
ParseResult (scheme = '', netloc = '', path = 'dkakasdkjdjakdjadjfalskdjfalk', params = '', query = '', fragmento = '')
ParseResult (scheme = 'https', netloc = 'stackoverflow.com', path = '', params = '', query = '', fragmento = '')
A string 'dkakasdkjdjakdjadjfalskdjfalk' não tem esquema ou netloc.
' https://stackoverflow.com ' é provavelmente um url válido.
Aqui está uma função mais concisa:
from urllib.parse import urlparse
min_attributes = ('scheme', 'netloc')
def is_valid(url, qualifying=min_attributes):
tokens = urlparse(url)
return all([getattr(tokens, qualifying_attr)
for qualifying_attr in qualifying])