C++ 双精度到二进制表示(重新解释转换)
C++ Double to Binary Representation (Reinterpret Cast)
我最近决定创建一个程序,允许我在 C++ 中打印出 any 类型实例的确切位模式。我从原始的内置类型开始。我 运行 遇到打印 double
类型的二进制表示的问题。
这是我的代码:
#include <iostream>
using namespace std;
void toBinary(ostream& o, char a)
{
const size_t size = sizeof(a) * 8;
for (int i = size - 1; i >= 0; --i){
bool b = a & (1UL << i);
o << b;
}
}
void toBinary(ostream& o, double d)
{
const size_t size = sizeof(d);
for (int i = 0; i < size; ++i){
char* c = reinterpret_cast<char*>(&d) + i;
toBinary(o, *c);
}
}
int main()
{
int a = 5;
cout << a << " as binary: ";
toBinary(cout, static_cast<char>(a));
cout << "\n";
double d = 5;
cout << d << " as double binary: ";
toBinary(cout, d);
cout << "\n";
}
我的输出如下:
5 为二进制:00000101
5 作为双二进制:0000000000000000000000000000000000000000000000000001010001000000
但是,我知道 5 作为浮点表示是:
01000000 00010100 00000000 00000000
00000000 00000000 00000000 00000000
也许我在这里不理解,但是我写的 reinterpret_cast<char*>(&d) + i
行不允许我将 double*
视为 char*
以便添加 i
将指针前进 sizeof(char)
而不是 sizeof(double)
。 (这是我想要的)?我做错了什么?
如果您将数字类型解释为 "byte sequence",您将暴露于机器字节序:一些平台首先存储最高有效字节,其他则相反。
只需观察您的数字,以 8 位为一组,从最后一组向第一组读取,您就会得到您期望的结果。
请注意,同样的问题也发生在整数上:5(32 位)是
00000101-00000000-00000000-00000000
而不是
00000000-00000000-00000000-00000101
如你所料。
我最近决定创建一个程序,允许我在 C++ 中打印出 any 类型实例的确切位模式。我从原始的内置类型开始。我 运行 遇到打印 double
类型的二进制表示的问题。
这是我的代码:
#include <iostream>
using namespace std;
void toBinary(ostream& o, char a)
{
const size_t size = sizeof(a) * 8;
for (int i = size - 1; i >= 0; --i){
bool b = a & (1UL << i);
o << b;
}
}
void toBinary(ostream& o, double d)
{
const size_t size = sizeof(d);
for (int i = 0; i < size; ++i){
char* c = reinterpret_cast<char*>(&d) + i;
toBinary(o, *c);
}
}
int main()
{
int a = 5;
cout << a << " as binary: ";
toBinary(cout, static_cast<char>(a));
cout << "\n";
double d = 5;
cout << d << " as double binary: ";
toBinary(cout, d);
cout << "\n";
}
我的输出如下: 5 为二进制:00000101
5 作为双二进制:0000000000000000000000000000000000000000000000000001010001000000
但是,我知道 5 作为浮点表示是: 01000000 00010100 00000000 00000000 00000000 00000000 00000000 00000000
也许我在这里不理解,但是我写的 reinterpret_cast<char*>(&d) + i
行不允许我将 double*
视为 char*
以便添加 i
将指针前进 sizeof(char)
而不是 sizeof(double)
。 (这是我想要的)?我做错了什么?
如果您将数字类型解释为 "byte sequence",您将暴露于机器字节序:一些平台首先存储最高有效字节,其他则相反。
只需观察您的数字,以 8 位为一组,从最后一组向第一组读取,您就会得到您期望的结果。
请注意,同样的问题也发生在整数上:5(32 位)是
00000101-00000000-00000000-00000000
而不是
00000000-00000000-00000000-00000101
如你所料。