Unicode 标准及其常见的编码方案
Unicode 标准为每一个字符提供一个唯一的数字,而不用区分平台、语言等因素。
The Unicode Standard provides a unique number for every character, no matter what platform, device, application or language.
基本概念
在开始学习之前,我们需要先了解本文所涉及到的一些基本概念。
抽象字符(Abstract character):用于组织、控制或者表示文本数据的信息单元。
- 抽象字符没有具体的形式,不应与图像字符(glyph)混淆。
- 抽象字符不一定对应于人们所认知的“字”,不应与字素(grapheme)混淆。
- 不能被 Unicode 标准直接编码的抽象字符通常可以通过组合字符序列来表示。
抽象字符序列(Abstract character sequence):一个或多个抽象字符的有序序列。
Unicode 编码空间(Unicode codespace):十六进制 0x0~0x10FFFF 之间的整数。
码位(Code point):Unicode 编码空间中的任意值。
编码字符(Coded character):当抽象字符被映射或者分配到编码空间中特定的码位时,它就被称为编码字符。
码位
码位是 Unicode 标准中很重要的一个概念。它的取值范围是十六进制的0x0~0x10FFFF
,换算成十进制是 0~1114111,共计 1114112 个。
需要注意的是,一个单一的抽象字符可能对应一个以上的码位。例如,Ω
既可以表示大写的希腊字母 Omega,码位是U+03A9
,也可以表示物理学中的欧姆符号,码位是U+2126
。
>>> '\u03a9'
'Ω'
>>> '\u2126'
'Ω'
单个抽象字符也可以由一系列码位的序列来表示。例如,é
的码位是U+00E9
,它也可以由小写字母e
(码位为U+0065
)和 ́
(Combining Acute Accent)(码位为U+0301
)组合而成。
>>> '\u00e9'
'é'
>>> '\u0065\u0301'
'é'
在 Unicode 标准中,码位的表示方法通常是使用它们的十六进制,并加上U+
前缀。
码位的类型
码位的分类方法多种多样。我们通过下表来阐明 Unicode 标准使用的七种类型和一些术语。
基本类型 | 简要描述 | 是否分配给抽象字符 | 码位范围 |
---|---|---|---|
图形(Graphic) | 字母、标记、数字、标点符号、符号和空格 | 是 | |
格式(Format) | 不可见但是影响相邻字符。包括行、段落分割符 | 是 | |
控制(Control) | Unicode 标准以外的协议或标准定义的用法 | 是 | U+0000~U+001F,U+007F,U+0080~U+009F,共计 65 个 |
私用(Private-use) | Unicode 标准以外的私有协议定义的用法 | 是 | |
代理 (Surrogate) | 永久预留给 UTF-16 编码方案 | 不允许分配 | U+D800~U+DFFF,共计 2048 个 |
非字符(Noncharacter) | 永久预留给内部使用 | 否 | U+FDD0~U+FDEF,所有以 FFFE 或者 FFFF 结尾的码位,共计 66 个 |
保留(Reserved) | 预留给将来使用 | 否 |
我们需要格外注意代理(Surrogate)类型,理解他有助于我们学习 UTF-16。它总共包含 2048 个码位,码位空间为 U+D800~U+DFFF。它又引发出两个新的概念:
高位代理(High-Surrogate):U+D800~U+DBFF 范围内的码位,共计 1024 个。
低位代理(Low-Surrogate):U+DC00~U+DFFF 范围内的码位,共计 1024 个。
关于它们更多的内容,稍后结合 UTF-16 再讨论。
编码方案
在介绍具体的编码方案之前,我们先明确一些新的基本概念。
Unicode 标量值(Unicode scalar value):除去高位代理和低位代理之外,所有的 Unicode 码位,也就是 U+0000~U+D7FF 和 U+E000~U+10FFFF 范围内的码位。
编码单元(Code unit):最小的比特位组合,表示用于交换或处理的编码文本单元。Unicode 标准中定义,UTF-8 使用 8 比特的编码单元,UTF-16 使用 16 比特的编码单元,UTF-32 使用 32 比特的编码单元。
编码单元序列(Code unit sequence):一个或多个编码单元的有序序列。
UTF-32
UTF-32 将每个 Unicode 标量值映射成一个无符号的 32 比特的编码单元,数值与 Unicode 标量值相同,这是一种定长的编码方案。
注意,UTF-32 无法编码 U+D800~U+DFFF 之间的码位,因为它们不属于 Unicode 标量值。
>>> '\ud800'.encode('utf32')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeEncodeError: 'utf-32' codec can't encode character '\ud800' in position 0: surrogates not allowed
UTF-16
UTF-16 将 Unicode 标量值中U+0000~U+D7FF
和U+E000~U+FFFF
范围内的码位映射成一个无符号的 16 比特的编码单元,数值与 Unicode 标量值相同。将U+10000~U+10FFFF
范围内的码位映射成一个代理对,所谓的代理对就是上文提到的高位代理和低位代理。UTF-16 是一种定长和变长兼顾的编码方案。
下表阐明了 UTF-16 的编码方式。
Unicode 标量值 | UTF-16 |
---|---|
xxxx xxxx xxxx xxxx | xxxx xxxx xxxx xxxx |
000u uuuu xxxx xxxx xxxx xxxx | 1101 10ww wwxx xxxx 1101 11xx xxxx xxxx |
其中, wwww = uuuuu - 1
重点分析使用代理对的情况,一个代理对包含一个高位代理编码单元和一个低位代理编码单元,都是 16 比特的。其中高位代理的范围是 U+D800~U+DBFF,转换成二进制,它的格式应该是 1101 10xx xxxx xxxx,低位代理的范围是 U+DC00~U+DFFF,转换成二进制,它的格式应该是 1101 11xx xxxx xxxx。
至此,我们还剩下 20 位可以填充。我们将码位减去 U+10000,再从右到左依次填充进去,就能得到 UTF-16 的编码。
以字符𐌂
(Old Italic Letter Ke)为例,它的码位是 U+10302,二进制表示是 0000 0001 0000 0011 0000 0010,减去 U+10000(二进制为 0000 0001 0000 0000 0000 0000),得到 0000 0000 0000 0011 0000 0010。从右到左填充进模版,得到 1101 1000 0000 0000 1101 1111 0000 0010,对应的十六进制是 D800 DF02。
>>> '𐌂'.encode('utf-16be')
b'\xd8\x00\xdf\x02'
UTF-8
UTF-8 将每个 Unicode 标量值映射成一到四个无符号的 8 比特的编码单元,这是一种变长的编码方案。
下表阐明了 UTF-8 的编码方式。
Unicode 标量值 | 第一个字节 | 第二个字节 | 第三个字节 | 第四个字节 |
---|---|---|---|---|
00000000 0xxxxxxx | 0xxxxxxx | |||
00000yyy yyxxxxxx | 110yyyyy | 10xxxxxx | ||
zzzzyyyy yyxxxxxx | 1110zzzz | 10yyyyyy | 10xxxxxx | |
000uuuuu zzzzyyyy yyxxxxxx | 11110uuu | 10uuzzzz | 10yyyyyy | 10xxxxxx |
仍然以字符𐌂
(Old Italic Letter Ke)为例,它的码位是 U+10302,二进制表示是 00000001 00000011 00000010,套用表中的模式,得到 11110000 10010000 10001100 10000010,对应的十六进制是 F090 8C82。
>>> '𐌂'.encode('utf-8')
b'\xf0\x90\x8c\x82'
下表阐明了 UTF-8 的所有有效编码范围。
Unicode 标量值范围 | 第一个字节 | 第二个字节 | 第三个字节 | 第四个字节 |
---|---|---|---|---|
U+0000~U+007F | 00~7F | |||
U+0080~U+07FF | C2~DF | 80~BF | ||
U+0800~U+0FFF | E0 | A0~BF | 80~BF | |
U+1000~U+CFFF | E1~EC | 80~BF | 80~BF | |
U+D000~U+D7FF | ED | 80~9F | 80~BF | |
U+E000~U+FFFF | EE~EF | 80~BF | 80~BF | |
U+10000~U+3FFFF | F0 | 90~BF | 80~BF | 80~BF |
U+40000~U+FFFFF | F1~F3 | 80~BF | 80~BF | 80~BF |
U+100000~U+10FFFF | F4 | 80~8F | 80~BF | 80~BF |
Unicode 带来的问题
比较
Unicode 标准可能会导致两个或者多个字符存在等价的现象。
>>> c1 = 'e\u0301'
>>> c2 = '\u00e9'
>>> c1
'é'
>>> c2
'é'
>>> len(c1)
2
>>> len(c2)
1
>>> c1 == c2
False
上例中,c1 和 c2 是两个不同的 Unicode 字符序列,但是它们显示的都是é
,实际应用中也应该将它们视为相同的字符,称之为标准等价物(canonical equivalent),但是在 Python 中它们并不相等。
解决这个问题的做法,通常是通过规范化 Unicode 字符串。在 Python 中,我们使用unicodedata.normalize
函数:
>>> from unicodedata import normalize
>>> c1 = 'e\u0301'
>>> c1
'é'
>>> c2 = '\u00e9'
>>> c2
'é'
>>> len(c1), len(c2)
(2, 1)
>>> len(normalize('NFC', c1)), len(normalize('NFC', c2))
(1, 1)
>>> len(normalize('NFD', c1)), len(normalize('NFD', c2))
(2, 2)
>>> normalize('NFC', c1) == c2
True
>>> c1 == normalize('NFD', c2)
True
normalize 函数的第一个参数可以是 NFC、NFD、NFKC 和 NFKD,我们重点看一下 NFC 和 NFD。
NFD(Normalization Form D):把每个字符转换成其分解的形式,也称之为规范分解。
NFC(Normalization Form C):先应用 NFD,再合成预先组合的形式。
参考资料
- UnicodeStandard-12.0:https://www.unicode.org/versions/Unicode12.1.0/
- unicodedata.normalize:https://docs.python.org/3/library/unicodedata.html?highlight=unicodedata#unicodedata.normalize