如何衡量并行程序的整体性能(使用papi)

How to measure overall performance of parallel programs (with papi)

我问自己什么是衡量并行程序性能(以触发器为单位)的最佳方法。我读到了 papi_flops。这似乎适用于串行程序。但是我不知道如何衡量并行程序的整体性能。

我想测量 blas/lapack 函数的性能,在我下面的 gemm 示例中。但我也想测量其他功能,特别是操作次数未知的功能。 (在 gemm 的情况下,ops 是已知的 (ops(gemm) = 2*n^3),因此我可以将性能计算为操作数和执行时间的函数。)库(我使用的是 Intel MKL) 自动生成线程。所以我无法单独测量每个线程的性能然后降低它。

这是我的例子:

#include <stdlib.h>                                                              
#include <stdio.h>                                                               
#include <string.h>                                                             
#include "mkl.h"
#include "omp.h"
#include "papi.h"       

int main(int argc, char *argv[] )                                                
{                                                                                
  int i, j, l, k, n, m, idx, iter;
  int mat, mat_min, mat_max;
  int threads;
  double *A, *B, *C;
  double alpha =1.0, beta=0.0;

  float rtime1, rtime2, ptime1, ptime2, mflops;
  long long flpops;

  #pragma omp parallel
  {
    #pragma omp master
    threads = omp_get_num_threads();
  }

  if(argc < 4){                                                                  
    printf("pass me 3 arguments!\n");                                            
    return( -1 );                                                                
  }                                                                              
  else                                                                           
  {                                                                            
    mat_min = atoi(argv[1]);
    mat_max = atoi(argv[2]);
    iter = atoi(argv[3]);                                                         
  }                    

  m = mat_max;  n = mat_max;  k = mat_max;

  printf (" Initializing data for matrix multiplication C=A*B for matrix \n"
            " A(%ix%i) and matrix B(%ix%i)\n\n", m, k, k, n);

  A = (double *) malloc( m*k * sizeof(double) );
  B = (double *) malloc( k*n * sizeof(double) );
  C = (double *) malloc( m*n * sizeof(double) );

  printf (" Intializing matrix data \n\n");
  for (i = 0; i < (m*k); i++)
    A[i] = (double)(i+1);
  for (i = 0; i < (k*n); i++)
    B[i] = (double)(-i-1);
  memset(C,0,m*n*sizeof(double));

  // actual meassurment
  for(mat=mat_min;mat<=mat_max;mat+=5)
  {
    m = mat;  n = mat; k = mat;

    for( idx=-1; idx<iter; idx++ ){
      PAPI_flops( &rtime1, &ptime1, &flpops, &mflops );
      cblas_dgemm(CblasColMajor, CblasNoTrans, CblasNoTrans, 
                    m, n, k, alpha, A, k, B, n, beta, C, n);
      PAPI_flops( &rtime2, &ptime2, &flpops, &mflops );
    }

    printf("%d threads: %d in %f sec, %f MFLOPS\n",threads,mat,rtime2-rtime1,mflops);fflush(stdout);
  }

  printf("Done\n");fflush(stdout);

  free(A);
  free(B);
  free(C);

  return 0;
}

这是一个输出(矩阵大小为 200):

1 threads: 200 in 0.001459 sec, 5570.258789 MFLOPS
2 threads: 200 in 0.000785 sec, 5254.993652 MFLOPS
4 threads: 200 in 0.000423 sec, 4919.640137 MFLOPS
8 threads: 200 in 0.000264 sec, 3894.036865 MFLOPS

我们可以看到函数 gemm 的执行时间是按比例缩放的。但是我正在测量的触发器只是线程 0 的性能。

我的问题是:如何衡量整体表现?我很感激任何输入。

首先,我很好奇 - 为什么需要 FLOPS?你不关心花了多少时间吗?或者与其他 BLAS 库相比花费的时间?

PAPI 是基于线程的,它本身在这里没有多大帮助。

我要做的是测量函数调用并查看时间如何随它产生的线程数而变化。它不应产生比物理内核更多的线程(HT 在这里不好)。然后,如果矩阵足够大,并且机器没有加载,时间应该简单地除以线程数。例如,4核10秒应该变成2.5秒。

除此之外,您可以做两件事来真正衡量它:
1. 使用你现在使用的任何东西,但在 BLAS 代码周围注入你的 start/end 测量代码。一种方法(在 linux 中)是通过预加载定义 pthread_start 的库并使用您自己的函数来调用原件但进行一些额外的测量。当进程已经 运行 (=trampoline) 时覆盖函数指针的另一种方法。在 linux 中它在 GOT/PLT 中,在 windows 中它更复杂 - 寻找图书馆。
2. 使用 oprofile 或其他分析器报告在您关心的时间内执行的指令数。或者更好的是,报告执行的浮点指令数。一个小问题是 SSE 指令一次乘以或加 2 个或更多双精度数,所以你必须考虑到这一点。我想你可以假设他们总是使用最大可能的操作数。