NUMA 感知 Cpp 容器
NUMA aware Cpp Container
有没有方便有效的方式以 NUMA 感知方式使用 cpp 标准容器API?
我想在 cpp 环境中执行 OpenMP 并行稀疏矩阵向量乘法。
要分配和初始化与 NUMA 域有关的向量和矩阵值,C 代码看起来像这样:
size_t N = 1000000;
double* vecVal = malloc (N*sizeof(double));
#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */
delete vecVal;
在 Cpp 中我想使用 std::vector(固定大小的 std::array 也可以)。
std::vector::reserve() 能解决问题吗?
这样做是否合法:
std::vector<double> vec;
vec.reserve(N);
double *vecVal = vec.data();
#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */
之后我怎样才能将正确的大小设置为 std::vector?
有谁知道更优雅的方法吗?
你必须在这里使用一个特殊的 numa 感知分配器。我们在这里为 HPX 实现了类似的东西:https://github.com/STEllAR-GROUP/hpx/blob/master/hpx/parallel/util/numa_allocator.hpp
基本思想是首先接触分配器内部的 allocate 函数。用你的 #omp parallel for schedule(static)
循环替换 HPX 执行器的东西,你应该没问题。
有没有方便有效的方式以 NUMA 感知方式使用 cpp 标准容器API?
我想在 cpp 环境中执行 OpenMP 并行稀疏矩阵向量乘法。 要分配和初始化与 NUMA 域有关的向量和矩阵值,C 代码看起来像这样:
size_t N = 1000000;
double* vecVal = malloc (N*sizeof(double));
#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */
delete vecVal;
在 Cpp 中我想使用 std::vector(固定大小的 std::array 也可以)。 std::vector::reserve() 能解决问题吗? 这样做是否合法:
std::vector<double> vec;
vec.reserve(N);
double *vecVal = vec.data();
#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */
之后我怎样才能将正确的大小设置为 std::vector?
有谁知道更优雅的方法吗?
你必须在这里使用一个特殊的 numa 感知分配器。我们在这里为 HPX 实现了类似的东西:https://github.com/STEllAR-GROUP/hpx/blob/master/hpx/parallel/util/numa_allocator.hpp
基本思想是首先接触分配器内部的 allocate 函数。用你的 #omp parallel for schedule(static)
循环替换 HPX 执行器的东西,你应该没问题。