编程语言中的 Unicode
因为 Unicode 可以给世界上大部分字符编码,因此大部分编程语言内部,都是使用 Unicode 来处理字符的。例如在 Java 中定义一个字符 char c = '中'
,这个字符实际是使用两个字节在内存中存储着他的 UTF-16 编码。所以如果将这个字符强转成整型 int i = (int) c
,得到的结果 20013
(0x4E2D
),就是 中
在 Unicode 中的 Code Point 值。
这个说法不完全准确,因为大部分编程语言定义的时候,Unicode 还没有辅助平面,所以一般都是固定的用两个字节来存储一个字符。
在有了辅助平面以后,辅助平面的字符,会被 UTF-16 编码成两个 Code Unit,需要 4 个字节来存储。而编程语言为了兼容性,不太可能将原有的 char 类型长度改为 4 个字节。所以就有可能需要用两个 char 来存储一个实际的字符。而原有的获取字符串长度的 API,实际获取到的是字符串中 Code Unit 的个数,不是实际字符的个数。获取某个位置字符的 API 也是同理,获取到的可能是一对 Code Unit 中的一个。因此需要使用编程语言提供的新的 API 或者通过额外的代码,来正确处理辅助平面的字符。
在编程语言中使用 Unicode
主要涉及以下操作:
@startuml
hide empty description
state Character
state CodePoint
state Bytes
Character -up-> CodePoint
CodePoint -down-> Character
CodePoint -down-> Bytes
Bytes -up-> CodePoint
Character -right-> Bytes
Bytes -left-> Character
@startuml
这其中最关键的就是字符和 Code Point 之间的转换。因为这里涉及字符集的映射,如果编程语言不支持,我们就要自己外挂编码表才能实现,否则无论如何都是没办法通过枚举实现的。
而有了 Code Point 以后,根据 UTF 系列编码的规则,我们自己也可以通过代码来实现 Code Point 和字节序列的转换。当然如果编程语言内置了相关的 API,那就更方便了。
这里省略了 Code Unit 的概念,因为一般在代码中,不会有这个中间过程,直接就编码成字节序列了。
Java
char 和 String 中可以使用 \uXXXX
来表示一个 Unicode 字符。String 中可以使用两个 \uXXXX
表示一个辅助平面的字符,但 char 中不行,因为一个辅助平面字符需要用两个 char 存储:
char c = '\u4E2D';
String s = "\uD840\uDC21";
String to Code Point count:
int count = "
标签:字符,Code,String,编程语言,Point,char,Unicode
From: https://www.cnblogs.com/val3344/p/16706146.html