在字符串中将十进制转换为二进制时出错

Error converting decimal to binary in string

我编写了一个解析器,它读取文本文件,文本格式如下:

a r3, r2, r1
ah r8, r5, r6, r7
ai r10, i10, r127

r的数字可以改变,首字母也可以改变。基本上,解析器所做的是基于初始字符(a、ah 等),它将定义一个操作码值,然后解析寄存器编号并将其转换为二进制。它将所有这些值连接在一起以创建一个 32 位长的二进制指令字符串并将其输出到文本文件。

在测试时,我 运行 出错了。

这是我的代码:

#include <iostream>
#include <string>
#include <fstream>
#include <sstream>
#include <vector>
#include <bitset>
using namespace std;

void main()
{
    string instruction, input, OpCode;
    int i = 0;
    int format = 0;
    vector<string> myString;
    ifstream inFile;
    inFile.open("myfile.txt");

    //format 1 -> input: syntax/rt/ra/rb     output -> opcode/rb/ra/rt
    //format 2 -> input: syntax/rt/ra/rb/rc  output -> opcode/rt/rb/ra/rc
    //format 3 -> input: syntax/rt/ra        output -> opcode/i7/ra/rt
    //format 4 -> input: syntax/rt/ra        output -> opcode/i10/ra/rt
    //format 5 -> input: syntax/rt           output -> opcode/i16/rt

    if (inFile.is_open()){
        cout << "test" << endl;
        //Read until no more lines in text file to read
        while (getline(inFile, input))
        {
            istringstream ss(input);
            string token;

            //Get the instruction token
            getline(ss, token, ' ');
            instruction = token;

            //ADD WORD
            if (instruction == "a"){
                OpCode = "00011000000";
                format = 1;
            }

            if (format == 1){
                // Seperate the registers
                //We have RA, RB, AND RT
                //Convert the values into binary
                string value;
                while (getline(ss, token, ',')){
                    ss.ignore();
                    token.erase(0, 1); //Remove the "r" or "i" character from each string/register              
                    myString.push_back(token);
                }

                for (int j = 0; j < myString.size(); j++)
                {
                    cout << myString[j] << endl;
                    value = bitset<8>(myString[j]).to_string();
                    cout << value << endl;
                    OpCode = OpCode + value;
                    cout << OpCode << endl;
                }
            }


        }

    }
    system("pause");
}

为了简单起见,我只为add word指令放了1条if语句。我用于测试的输入如下:

a r3, r1, r2

它应该做的是看到指令是 a,所以 OpCode 被设置,它将继续解析 r3, r2, r1。它将删除 r 并将 3、2 和 1 转换为其二进制值,并将其放入一个字符串中,该字符串与 OpCode 连接以形成 32 位长的指令。我遇到的问题是 value = bitset<8>myString[j]).to_string();。 Visual studio 调试时抛出以下错误:

Unhandled exception at 0X7712C52F in Assembler_Parser.exe: Microsoft C++ exception: std::invalid_arguement at memory location 0x0039F110.

我不知道该怎么做。它让我可以选择中断或继续。如果我继续,它会将 3 转换为 00000000。在下一次迭代中,它会正确地将 2 转换为 00000010,但它会再次为 1 抛出异常。

我不确定为什么会这样。

bitset 的字符串构造函数不会将值从其十进制(或十六进制)表示形式转换为二进制形式。如果它遇到的任何字符不是 01,它会抛出一个 std::invalid_argument 异常。试试 std::stoi:

value = bitset<8>(std::stoi(myString[j])).to_string();