new String(byte []) 结果在 JDK 7 和 8 中不同

new String(byte []) results differ in JDK 7 and 8

一些字节数组使用 new String (byte [],"UTF-8") return 在 jdk 1.7 和 1.8

中有不同的结果
byte[] bytes1 = {55, 93, 97, -13, 4, 8, 29, 26, -68, -4, -26, -94, -37, 32, -41, 88};
        String str1 = new String(bytes1,"UTF-8");
        System.out.println(str1.length());

        byte[] out1 = str1.getBytes("UTF-8");
        System.out.println(out1.length);
        System.out.println(Arrays.toString(out1));

byte[] bytes2 = {65, -103, -103, 73, 32, 68, 49, 73, -1, -30, -1, -103, -92, 11, -32, -30};
        String str2 = new String(bytes2,"UTF-8");
        System.out.println(str2.length());

        byte[] out2 = str2.getBytes("UTF-8");
        System.out.println(out2.length);
        System.out.println(Arrays.toString(out2));

bytes2 use new String(byte[],"UTF-8"),结果(str2)在jdk7和jdk8中不一样, 但 byte1 是一样的。 bytes2有什么特别之处?

测试"ISO-8859-1"代码,bytes2的结果在jdk1.8中是一样的!

jdk1.7.0_80:

15
27
[55, 93, 97, -17, -65, -67, 4, 8, 29, 26, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, 32, -17, -65, -67, 88]
15
31
[65, -17, -65, -67, -17, -65, -67, 73, 32, 68, 49, 73, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, 11, -17, -65, -67]

jdk1.8.0_201

15
27
[55, 93, 97, -17, -65, -67, 4, 8, 29, 26, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, 32, -17, -65, -67, 88]
16
34
[65, -17, -65, -67, -17, -65, -67, 73, 32, 68, 49, 73, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, -17, -65, -67, 11, -17, -65, -67, -17, -65, -67]

简答:

在第二个字节数组中,最后 2 个字节:[-32, -37] (0b11011011_11100000) 编码为:

By JDK 7: [-17, -65, -67] which is Unicode character 0xFFFD ("invalid character"),
By JDK 8: [-17, -65, -67, -17, -65, -67] which is 2 of 0xFFFD characters.

长答案:

您数组中的某些字节序列似乎不是有效的 UTF-8 序列。 让我们考虑一下这段代码:

byte[] bb = {55, 93, 97, -13, 4, 8, 29, 26, -68, -4, -26, -94, -37, 32, -41, 88};
for (byte b : bb) System.out.println(Integer.toBinaryString(b & 0xff));

它将打印(为了便于阅读,我手动添加了前导下划线):

__110111
_1011101
_1100001
11110011
_____100
____1000
___11101
___11010
10111100
11111100
11100110
10100010
11011011
__100000
11010111
_1011000

如您在 UTF-8 Wikipedia article 中所见,utf-8 编码字符串,使用以下二进制序列:

0xxxxxxx -- for ASCII characters
110xxxxx 10xxxxxx -- for 0x0080 to 0x07ff
1110xxxx 10xxxxxx 10xxxxxx -- for 0x0800 to 0xFFFF
... and so on

因此每个不遵循此编码方案的字符都被替换为 3 个字节:

[-17, -65, -67]
二进制 11101111 10111111 10111101
Unicode 位是 0b11111111_11111101
Unicode 十六进制为 0xFFFD(Unicode 的“无效字符”)

您的代码打印的数组的唯一区别是如何处理以下字符,它们是第二个数组末尾的 2 个字节:

[-32, -30] is 0b11100000_11100010, and this is not valid UTF-8

JDK 7 为此序列生成了单个 0xFFFD 字符。
JDK 8 为此序列生成了两个 0xFFFD 字符。

RFC-3629 标准没有关于如何处理无效序列的明确说明,因此似乎在 JDK 8 他们决定为每个无效字节生成 0xFFFD,这似乎更正确。

另一个问题是,为什么您在不应该这样做的时候尝试将此类原始非 UTF-8 字节解析为 UTF-8 字符?