为什么 Uint8Array.toString('hex') return 不是十六进制?

Why doesn't Uint8Array.toString('hex') return hex?

鉴于此(基于 ):

const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte, 16)));

console.log(fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a').toString('hex'))

//expected "a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a"

//get "160,227,12,158,70,216,249,115,244,8,45,121,252,225,251,70,177,193,153,187,4,123,179,84,92,133,181,69,247,161,101,10"

为什么它不 return 为十六进制?

编辑,我的困惑之源。我正在使用 hypersdk library。这允许 .toString('hex') 模式。

当我切换到 beaker 时,我无法再使用它。

编辑 2:

我想我的困惑是因为我使用的是基于 node.js 的 Buffer 对象:https://nodejs.org/api/buffer.html#buffer_buf_tostring_encoding_start_end

这是使用 hypersdk 浏览器化的,缓冲区表示为 TypedArray 对象,覆盖了 toString 原型方法以匹配 Buffer 版本。

类型化数组有一个不带参数的 toString 方法,因此向它提供 'hex' 不会有任何影响,它只会将值连接到一个以逗号分隔的值列表中以十进制表示。

要获得十六进制输出,您需要迭代数组并将每个值转换为十六进制并连接结果:

const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte, 16)));

const toHexString = arr => Array.from(arr, i => i.toString(16).padStart(2, "0")).join("");

const arr = fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a');

console.log(toHexString(arr));