如何解决为什么 Uint8Array.toString('hex') 不返回十六进制?
鉴于此(基于 another answer):
const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte,16)));
console.log(fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a').toString('hex'))
//expected "a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a"
//get "160,227,12,158,70,216,249,115,244,8,45,121,252,225,251,177,193,153,187,4,123,179,84,92,133,181,69,247,161,101,10"
为什么它不以十六进制形式返回?
编辑,这是我困惑的根源。我正在使用 hypersdk library。这允许 .toString('hex')
模式。
当我切换到 beaker 时,我无法再使用它。
编辑 2:
我认为我的困惑是因为我使用的是基于 node.js 的 Buffer
对象:https://nodejs.org/api/buffer.html#buffer_buf_tostring_encoding_start_end
这是使用 hypersdk 浏览器化的,缓冲区被表示为 TypedArray
对象,并覆盖了 toString
原型方法以匹配 Buffer
版本。
解决方法
类型化数组有一个不带参数的 toString
方法,因此向它提供 'hex'
不会有任何影响,它只会将值连接到以逗号分隔的十进制值列表中代表。
要获得十六进制输出,您需要迭代数组并将每个值转换为十六进制并连接结果:
const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte,16)));
const toHexString = arr => Array.from(arr,i => i.toString(16).padStart(2,"0")).join("");
const arr = fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a');
console.log(toHexString(arr));
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。