Este é um problema comum, então aqui está uma ilustração relativamente completa.
Para strings não Unicode (ou seja, aqueles sem u
prefixo como u'\xc4pple'
), deve-se decodificar da codificação nativa ( iso8859-1
/ latin1
, a menos que modificado com asys.setdefaultencoding
função enigmática ) para unicode
, em seguida, codificar para um conjunto de caracteres que pode exibir os caracteres que você deseja, neste caso I recomendaria UTF-8
.
Primeiro, aqui está uma função de utilitário útil que ajudará a iluminar os padrões de string e Unicode do Python 2.7:
>>> def tell_me_about(s): return (type(s), s)
Uma corda simples
>>> v = "\xC4pple"
>>> tell_me_about(v)
(<type 'str'>, '\xc4pple')
>>> v
'\xc4pple'
>>> print v
?pple
Decodificando uma string iso8859-1 - converte string simples em Unicode
>>> uv = v.decode("iso-8859-1")
>>> uv
u'\xc4pple'
>>> tell_me_about(uv)
(<type 'unicode'>, u'\xc4pple')
>>> print v.decode("iso-8859-1")
Äpple
>>> v.decode('iso-8859-1') == u'\xc4pple'
True
Um pouco mais de ilustração - com “Ä”
>>> u"Ä" == u"\xc4"
True
>>> "Ä" == u"\xc4"
False
>>> "Ä".decode('utf8') == u"\xc4"
True
>>> "Ä" == "\xc4"
False
Codificando para UTF
>>> u8 = v.decode("iso-8859-1").encode("utf-8")
>>> u8
'\xc3\x84pple'
>>> tell_me_about(u8)
(<type 'str'>, '\xc3\x84pple')
>>> u16 = v.decode('iso-8859-1').encode('utf-16')
>>> tell_me_about(u16)
(<type 'str'>, '\xff\xfe\xc4\x00p\x00p\x00l\x00e\x00')
>>> tell_me_about(u8.decode('utf8'))
(<type 'unicode'>, u'\xc4pple')
>>> tell_me_about(u16.decode('utf16'))
(<type 'unicode'>, u'\xc4pple')
Relação entre unicode e UTF e latin1
>>> print u8
Äpple
>>> print u8.decode('utf-8')
Äpple
>>> print u16
���pple
>>> print u16.decode('utf16')
Äpple
>>> v == u8
False
>>> v.decode('iso8859-1') == u8
False
>>> u8.decode('utf-8') == v.decode('latin1') == u16.decode('utf-16')
True
Exceções Unicode
>>> u8.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0:
ordinal not in range(128)
>>> u16.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xff in position 0:
ordinal not in range(128)
>>> v.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc4 in position 0:
ordinal not in range(128)
Alguém poderia contornar isso convertendo da codificação específica (latin-1, utf8, utf16) para unicode, por exemplo u8.decode('utf8').encode('latin1')
.
Portanto, talvez seja possível traçar os seguintes princípios e generalizações:
- um tipo
str
é um conjunto de bytes, que pode ter uma de várias codificações, como Latin-1, UTF-8 e UTF-16
- um tipo
unicode
é um conjunto de bytes que pode ser convertido em qualquer número de codificações, mais comumente UTF-8 e latin-1 (iso8859-1)
- o
print
comando tem sua própria lógica para codificação , definida sys.stdout.encoding
e padronizada para UTF-8
- É necessário decodificar um
str
para Unicode antes de converter para outra codificação.
Claro, tudo isso muda no Python 3.x.
Espero que isso seja esclarecedor.
Leitura adicional
E os discursos muito ilustrativos de Armin Ronacher: