C++ 异常的成本和 setjmp/longjmp
The Cost of C++ Exceptions and setjmp/longjmp
我写了一个测试来测量 C++ 线程异常的成本。
#include <cstdlib>
#include <iostream>
#include <vector>
#include <thread>
static const int N = 100000;
static void doSomething(int& n)
{
--n;
throw 1;
}
static void throwManyManyTimes()
{
int n = N;
while (n)
{
try
{
doSomething(n);
}
catch (int n)
{
switch (n)
{
case 1:
continue;
default:
std::cout << "error" << std::endl;
std::exit(EXIT_FAILURE);
}
}
}
}
int main(void)
{
int nCPUs = std::thread::hardware_concurrency();
std::vector<std::thread> threads(nCPUs);
for (int i = 0; i < nCPUs; ++i)
{
threads[i] = std::thread(throwManyManyTimes);
}
for (int i = 0; i < nCPUs; ++i)
{
threads[i].join();
}
return EXIT_SUCCESS;
}
这是我最初为了好玩而写的 C 版本。
#include <stdio.h>
#include <stdlib.h>
#include <setjmp.h>
#include <glib.h>
#define N 100000
static GPrivate jumpBuffer;
static void doSomething(volatile int *pn)
{
jmp_buf *pjb = g_private_get(&jumpBuffer);
--*pn;
longjmp(*pjb, 1);
}
static void *throwManyManyTimes(void *p)
{
jmp_buf jb;
volatile int n = N;
(void)p;
g_private_set(&jumpBuffer, &jb);
while (n)
{
switch (setjmp(jb))
{
case 0:
doSomething(&n);
case 1:
continue;
default:
printf("error\n");
exit(EXIT_FAILURE);
}
}
return NULL;
}
int main(void)
{
int nCPUs = g_get_num_processors();
GThread *threads[nCPUs];
int i;
for (i = 0; i < nCPUs; ++i)
{
threads[i] = g_thread_new(NULL, throwManyManyTimes, NULL);
}
for (i = 0; i < nCPUs; ++i)
{
g_thread_join(threads[i]);
}
return EXIT_SUCCESS;
}
C++ 版本 运行 与 C 版本相比非常慢。
$ g++ -O3 -g -std=c++11 test.cpp -o cpp-test -pthread
$ gcc -O3 -g -std=c89 test.c -o c-test `pkg-config glib-2.0 --cflags --libs`
$ time ./cpp-test
real 0m1.089s
user 0m2.345s
sys 0m1.637s
$ time ./c-test
real 0m0.024s
user 0m0.067s
sys 0m0.000s
所以我 运行 callgrind 分析器。
对于 cpp-test
,__cxz_throw
被调用了 400,000 次,自身成本为 8,000,032。
对于 c-test
,__longjmp_chk
被调用了 400,000 次,自身成本为 5,600,000。
cpp-test
的总成本是 4,048,441,756。
c-test
的总成本是 60,417,722。
我想除了简单地保存跳转点的状态和稍后使用 C++ 异常来恢复之外,还有更多的事情要做。我无法使用更大的 N
进行测试,因为 callgrind 分析器将 运行 永远用于 C++ 测试。
至少在这个例子中,C++ 异常所涉及的额外成本使其比 setjmp
/longjmp
对慢很多倍?
这是设计使然。
C++ 异常在本质上应该是 exceptional 并因此进行了优化。当没有发生异常时,程序被编译为最有效的。
您可以通过注释掉测试中的异常来验证这一点。
在 C++ 中:
//throw 1;
$ g++ -O3 -g -std=c++11 test.cpp -o cpp-test -pthread
$ time ./cpp-test
real 0m0.003s
user 0m0.004s
sys 0m0.000s
在 C:
/*longjmp(*pjb, 1);*/
$ gcc -O3 -g -std=c89 test.c -o c-test `pkg-config glib-2.0 --cflags --libs`
$ time ./c-test
real 0m0.008s
user 0m0.012s
sys 0m0.004s
What is the extra cost involved in C++ exceptions making it many times slower than the setjmp/longjmp pair at least in this example?
g++ 实现零成本模型异常,当异常不抛出 时,它没有有效的开销*。生成机器码就好像没有 try
/catch
块一样。
此零开销的成本是当抛出异常时必须在程序计数器上执行table查找,以确定跳转到执行堆栈展开的适当代码。这将整个 try
/catch
块实现放在执行 throw
.
的代码中
您的额外费用是 table 查找。
*可能会出现一些小的时序问题,因为 PC 查找的存在 table 可能会影响内存布局,这可能会影响 CPU 缓存未命中。
我写了一个测试来测量 C++ 线程异常的成本。
#include <cstdlib>
#include <iostream>
#include <vector>
#include <thread>
static const int N = 100000;
static void doSomething(int& n)
{
--n;
throw 1;
}
static void throwManyManyTimes()
{
int n = N;
while (n)
{
try
{
doSomething(n);
}
catch (int n)
{
switch (n)
{
case 1:
continue;
default:
std::cout << "error" << std::endl;
std::exit(EXIT_FAILURE);
}
}
}
}
int main(void)
{
int nCPUs = std::thread::hardware_concurrency();
std::vector<std::thread> threads(nCPUs);
for (int i = 0; i < nCPUs; ++i)
{
threads[i] = std::thread(throwManyManyTimes);
}
for (int i = 0; i < nCPUs; ++i)
{
threads[i].join();
}
return EXIT_SUCCESS;
}
这是我最初为了好玩而写的 C 版本。
#include <stdio.h>
#include <stdlib.h>
#include <setjmp.h>
#include <glib.h>
#define N 100000
static GPrivate jumpBuffer;
static void doSomething(volatile int *pn)
{
jmp_buf *pjb = g_private_get(&jumpBuffer);
--*pn;
longjmp(*pjb, 1);
}
static void *throwManyManyTimes(void *p)
{
jmp_buf jb;
volatile int n = N;
(void)p;
g_private_set(&jumpBuffer, &jb);
while (n)
{
switch (setjmp(jb))
{
case 0:
doSomething(&n);
case 1:
continue;
default:
printf("error\n");
exit(EXIT_FAILURE);
}
}
return NULL;
}
int main(void)
{
int nCPUs = g_get_num_processors();
GThread *threads[nCPUs];
int i;
for (i = 0; i < nCPUs; ++i)
{
threads[i] = g_thread_new(NULL, throwManyManyTimes, NULL);
}
for (i = 0; i < nCPUs; ++i)
{
g_thread_join(threads[i]);
}
return EXIT_SUCCESS;
}
C++ 版本 运行 与 C 版本相比非常慢。
$ g++ -O3 -g -std=c++11 test.cpp -o cpp-test -pthread
$ gcc -O3 -g -std=c89 test.c -o c-test `pkg-config glib-2.0 --cflags --libs`
$ time ./cpp-test
real 0m1.089s
user 0m2.345s
sys 0m1.637s
$ time ./c-test
real 0m0.024s
user 0m0.067s
sys 0m0.000s
所以我 运行 callgrind 分析器。
对于 cpp-test
,__cxz_throw
被调用了 400,000 次,自身成本为 8,000,032。
对于 c-test
,__longjmp_chk
被调用了 400,000 次,自身成本为 5,600,000。
cpp-test
的总成本是 4,048,441,756。
c-test
的总成本是 60,417,722。
我想除了简单地保存跳转点的状态和稍后使用 C++ 异常来恢复之外,还有更多的事情要做。我无法使用更大的 N
进行测试,因为 callgrind 分析器将 运行 永远用于 C++ 测试。
至少在这个例子中,C++ 异常所涉及的额外成本使其比 setjmp
/longjmp
对慢很多倍?
这是设计使然。
C++ 异常在本质上应该是 exceptional 并因此进行了优化。当没有发生异常时,程序被编译为最有效的。
您可以通过注释掉测试中的异常来验证这一点。
在 C++ 中:
//throw 1;
$ g++ -O3 -g -std=c++11 test.cpp -o cpp-test -pthread
$ time ./cpp-test
real 0m0.003s
user 0m0.004s
sys 0m0.000s
在 C:
/*longjmp(*pjb, 1);*/
$ gcc -O3 -g -std=c89 test.c -o c-test `pkg-config glib-2.0 --cflags --libs`
$ time ./c-test
real 0m0.008s
user 0m0.012s
sys 0m0.004s
What is the extra cost involved in C++ exceptions making it many times slower than the setjmp/longjmp pair at least in this example?
g++ 实现零成本模型异常,当异常不抛出 时,它没有有效的开销*。生成机器码就好像没有 try
/catch
块一样。
此零开销的成本是当抛出异常时必须在程序计数器上执行table查找,以确定跳转到执行堆栈展开的适当代码。这将整个 try
/catch
块实现放在执行 throw
.
您的额外费用是 table 查找。
*可能会出现一些小的时序问题,因为 PC 查找的存在 table 可能会影响内存布局,这可能会影响 CPU 缓存未命中。