在 OpenMP for 循环中调用函数
Call a function inside an OpenMP for loop
刚刚开始使用 OpenMP。我想知道是否有可能在调用外部函数的 for 循环中 运行 一个 OpenMP 并行 for,它本身不调用任何其他函数。我输入了一些简化的代码来说明我的观点:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
w_wake[0] += w_ind[0];
w_wake[1] += w_ind[1];
w_wake[2] += w_ind[2];
}
我知道我需要在调用中添加更多内容,但是这个 openMp 循环在技术上可以工作吗?
您必须永远让不同的线程在没有适当同步的情况下写入相同的变量,以避免竞争条件。
在你的程序中,多个线程读取一个变量的同一个值,然后每个线程向它添加另一个值,然后所有线程都写入结果在相同的位置 ,因此许多计算会被覆盖并且不会加起来成为最终结果。因此,您的程序计算的结果低于正确值(顺便说一下,您应该准确说明您的程序的结果与您预期的结果有何不同)。
一个简单但低效的解决方法是使用原子加法:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++) {
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
#pragma omp atomic
w_wake[0] += w_ind[0];
#pragma omp atomic
w_wake[1] += w_ind[1];
#pragma omp atomic
w_wake[2] += w_ind[2];
}
一种更有效的并行求和方法是让每个线程在私有变量中累加值(只能被该线程看到),从而获得部分求和。
#pragma omp parallel
{
int wake0 = wake1 = wake2 = 0; // private variables
#pragma omp for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
// now we're out of the loop but still inside the parallel region
// so, let's add up the partial sums
#pragma omp atomic
w_wake[0] += wake0;
#pragma omp atomic
w_wake[1] += wake1;
#pragma omp atomic
w_wake[2] += wake2;
}
让 OpenMP 管理缩减操作通常更好,但如果您需要将结果存储在数组中,您自己这样做可能更容易。
另一方面,如果您真的不需要数组,那么您可以简单地这样做:
int wake0 = wake1 = wake2 = 0; // SHARED variables this time
#pragma omp parallel for reduction(+ : wake0, wake1, wake2)
{
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
}
刚刚开始使用 OpenMP。我想知道是否有可能在调用外部函数的 for 循环中 运行 一个 OpenMP 并行 for,它本身不调用任何其他函数。我输入了一些简化的代码来说明我的观点:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
w_wake[0] += w_ind[0];
w_wake[1] += w_ind[1];
w_wake[2] += w_ind[2];
}
我知道我需要在调用中添加更多内容,但是这个 openMp 循环在技术上可以工作吗?
您必须永远让不同的线程在没有适当同步的情况下写入相同的变量,以避免竞争条件。
在你的程序中,多个线程读取一个变量的同一个值,然后每个线程向它添加另一个值,然后所有线程都写入结果在相同的位置 ,因此许多计算会被覆盖并且不会加起来成为最终结果。因此,您的程序计算的结果低于正确值(顺便说一下,您应该准确说明您的程序的结果与您预期的结果有何不同)。
一个简单但低效的解决方法是使用原子加法:
#pragma omp parallel for
for(span=0;span<info.nospanelement;span++) {
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
#pragma omp atomic
w_wake[0] += w_ind[0];
#pragma omp atomic
w_wake[1] += w_ind[1];
#pragma omp atomic
w_wake[2] += w_ind[2];
}
一种更有效的并行求和方法是让每个线程在私有变量中累加值(只能被该线程看到),从而获得部分求和。
#pragma omp parallel
{
int wake0 = wake1 = wake2 = 0; // private variables
#pragma omp for
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
// now we're out of the loop but still inside the parallel region
// so, let's add up the partial sums
#pragma omp atomic
w_wake[0] += wake0;
#pragma omp atomic
w_wake[1] += wake1;
#pragma omp atomic
w_wake[2] += wake2;
}
让 OpenMP 管理缩减操作通常更好,但如果您需要将结果存储在数组中,您自己这样做可能更容易。
另一方面,如果您真的不需要数组,那么您可以简单地这样做:
int wake0 = wake1 = wake2 = 0; // SHARED variables this time
#pragma omp parallel for reduction(+ : wake0, wake1, wake2)
{
for(span=0;span<info.nospanelement;span++)
{
some_function(info,wakePtr[time][span],P,w_ind,1);
//additions to be done each repeat
wake0 += w_ind[0]; // accumulate in private variable
wake1 += w_ind[1];
wake2 += w_ind[2];
}
}