gcc 需要大量内存来编译堆栈上非常大的对象的 c++ 文件
gcc takes much memory to compile c++ file with very large object on stack
我有一个使用 std::bitset<size>
的 c++ 文件。在 windows 子系统 linux 上使用 gcc 进行编译时,如果 size = 1000000000
(1Gbit) 导致使用大约 1.6GB 编译时内存,size = 10000000000
(10Gbit) 导致大约 6GB 内存和~15GB 虚拟内存(我的电脑总共有 8GB 内存)。内存是逐渐分配的,达到最大值后编译立即结束。
如果 size
很大,程序一启动就会运行到 Segmentation fault (core dumped)
。转折点在10M到100M之间
在 MSVC 上,如果 size
很小,程序编译和运行良好。对于更大的 size
,抛出异常:"Stack overflow"。如果 size
真的很大,它会在文件 bitset
中给出错误 "total size of array must not exceed 0x7fffffff bytes"
问题与优化级别无关。不管-O0,-O1,
-O2或O3,一样。
这是gcc -v
的输出:
Using built-in specs.
COLLECT_GCC=gcc
COLLECT_LTO_WRAPPER=/usr/lib/gcc/x86_64-linux-gnu/7/lto-wrapper
OFFLOAD_TARGET_NAMES=nvptx-none
OFFLOAD_TARGET_DEFAULT=1
Target: x86_64-linux-gnu
Configured with: ../src/configure -v --with-pkgversion='Ubuntu 7.3.0-27ubuntu1~18.04' --with-bugurl=file:///usr/share/doc/gcc-7/README.Bugs --enable-languages=c,ada,c++,go,brig,d,fortran,objc,obj-c++ --prefix=/usr --with-gcc-major-version-only --program-suffix=-7 --program-prefix=x86_64-linux-gnu- --enable-shared --enable-linker-build-id --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --libdir=/usr/lib --enable-nls --with-sysroot=/ --enable-clocale=gnu --enable-libstdcxx-debug --enable-libstdcxx-time=yes --with-default-libstdcxx-abi=new --enable-gnu-unique-object --disable-vtable-verify --enable-libmpx --enable-plugin --enable-default-pie --with-system-zlib --with-target-system-zlib --enable-objc-gc=auto --enable-multiarch --disable-werror --with-arch-32=i686 --with-abi=m64 --with-multilib-list=m32,m64,mx32 --enable-multilib --with-tune=generic --enable-offload-targets=nvptx-none --without-cuda-driver --enable-checking=release --build=x86_64-linux-gnu --host=x86_64-linux-gnu --target=x86_64-linux-gnu
Thread model: posix
gcc version 7.3.0 (Ubuntu 7.3.0-27ubuntu1~18.04)
这是我的测试代码,很简单
#include <bitset>
int main(){
const size_t size = ...;
std::bitset<size> bs;
return 0;
}
如果使用 gcc-8 而不是 gcc-7 则没有这样的问题,编译完成很快,如果 size
很大,程序会遇到段错误,这是应该的。
如果我使用 vector<bool>
或使用 new
创建位集,它运行良好。
所以没有问题要解决但是我的问题是:
为什么 gcc-7 需要这么多内存(和时间)来编译文件?
这是 GCC 中的一个已知错误,与 constexpr
超大对象的初始化有关。
有几个错误报告,其中之一是 bug 56671,于 2013 年 3 月针对 v4.7.2 报告。该错误已于 2018 年 6 月标记为已解决,这意味着它至少存在于 v7.3,但现在已得到纠正。
如果您需要解决方法,使用不同的构造函数似乎不会触发错误。特别是,将 std::bitset<size> bs;
更改为 std::bitset<size> bs(0);
可以在各种版本的 gcc 上正常编译,包括 v.7.3.0(根据我试过的在线编译器)。
我有一个使用 std::bitset<size>
的 c++ 文件。在 windows 子系统 linux 上使用 gcc 进行编译时,如果 size = 1000000000
(1Gbit) 导致使用大约 1.6GB 编译时内存,size = 10000000000
(10Gbit) 导致大约 6GB 内存和~15GB 虚拟内存(我的电脑总共有 8GB 内存)。内存是逐渐分配的,达到最大值后编译立即结束。
如果 size
很大,程序一启动就会运行到 Segmentation fault (core dumped)
。转折点在10M到100M之间
在 MSVC 上,如果 size
很小,程序编译和运行良好。对于更大的 size
,抛出异常:"Stack overflow"。如果 size
真的很大,它会在文件 bitset
问题与优化级别无关。不管-O0,-O1, -O2或O3,一样。
这是gcc -v
的输出:
Using built-in specs.
COLLECT_GCC=gcc
COLLECT_LTO_WRAPPER=/usr/lib/gcc/x86_64-linux-gnu/7/lto-wrapper
OFFLOAD_TARGET_NAMES=nvptx-none
OFFLOAD_TARGET_DEFAULT=1
Target: x86_64-linux-gnu
Configured with: ../src/configure -v --with-pkgversion='Ubuntu 7.3.0-27ubuntu1~18.04' --with-bugurl=file:///usr/share/doc/gcc-7/README.Bugs --enable-languages=c,ada,c++,go,brig,d,fortran,objc,obj-c++ --prefix=/usr --with-gcc-major-version-only --program-suffix=-7 --program-prefix=x86_64-linux-gnu- --enable-shared --enable-linker-build-id --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --libdir=/usr/lib --enable-nls --with-sysroot=/ --enable-clocale=gnu --enable-libstdcxx-debug --enable-libstdcxx-time=yes --with-default-libstdcxx-abi=new --enable-gnu-unique-object --disable-vtable-verify --enable-libmpx --enable-plugin --enable-default-pie --with-system-zlib --with-target-system-zlib --enable-objc-gc=auto --enable-multiarch --disable-werror --with-arch-32=i686 --with-abi=m64 --with-multilib-list=m32,m64,mx32 --enable-multilib --with-tune=generic --enable-offload-targets=nvptx-none --without-cuda-driver --enable-checking=release --build=x86_64-linux-gnu --host=x86_64-linux-gnu --target=x86_64-linux-gnu
Thread model: posix
gcc version 7.3.0 (Ubuntu 7.3.0-27ubuntu1~18.04)
这是我的测试代码,很简单
#include <bitset>
int main(){
const size_t size = ...;
std::bitset<size> bs;
return 0;
}
如果使用 gcc-8 而不是 gcc-7 则没有这样的问题,编译完成很快,如果 size
很大,程序会遇到段错误,这是应该的。
如果我使用 vector<bool>
或使用 new
创建位集,它运行良好。
所以没有问题要解决但是我的问题是:
为什么 gcc-7 需要这么多内存(和时间)来编译文件?
这是 GCC 中的一个已知错误,与 constexpr
超大对象的初始化有关。
有几个错误报告,其中之一是 bug 56671,于 2013 年 3 月针对 v4.7.2 报告。该错误已于 2018 年 6 月标记为已解决,这意味着它至少存在于 v7.3,但现在已得到纠正。
如果您需要解决方法,使用不同的构造函数似乎不会触发错误。特别是,将 std::bitset<size> bs;
更改为 std::bitset<size> bs(0);
可以在各种版本的 gcc 上正常编译,包括 v.7.3.0(根据我试过的在线编译器)。