本征矩阵乘法比 cblas 慢?

Eigen matrix multiplication slower than cblas?

我使用以下代码来测试 Eigen 性能。

#include <iostream>
#include <chrono>
#define EIGEN_NO_DEBUG
#include <eigen3/Eigen/Dense>
#include <cblas.h>
using namespace std;
using namespace std::chrono;

int main()
{
    int n = 3000;

    high_resolution_clock::time_point t1, t2;

    Eigen::MatrixXd A(n, n), B(n, n), C(n, n);

    t1 = high_resolution_clock::now();
    C = A * B;
    t2 = high_resolution_clock::now();
    auto dur = duration_cast<milliseconds>(t2 - t1);
    cout << "eigen: " << dur.count() << endl;

    t1 = high_resolution_clock::now();
    cblas_dgemm(CblasColMajor, CblasNoTrans, CblasNoTrans,
                n, n, n, 1.0, A.data(), n, B.data(), n, 1.0, C.data(), n);
    t2 = high_resolution_clock::now();
    dur = duration_cast<milliseconds>(t2 - t1);
    cout << "cblas: " << dur.count() << endl;

    return 0;
}

我用下面的命令编译它:

g++ test.cpp  -O3 -fopenmp -lblas -std=c++11 -o test

结果是:

本征:1422 毫秒

cblas:432 毫秒

我做错了什么吗?根据他们的基准,它应该更快。

另一个问题是使用 numpy 我得到 24 毫秒

import time 
import numpy as np

a = np.random.random((3000, 3000))
b = np.random.random((3000, 3000))
start = time.time()
c = a * b
print("time: ", time.time() - start)

说您正在使用 cblas 提供的信息很少,因为 cblas 只是一个 API。底层 BLAS 库可以是 netlib 的 BLAS、OpenBLAS、ATLAS、Intel MKL、Apple 的 Accelerate,甚至是 EigenBlas...根据您的测量,很明显您的底层 BLAS 是一个利用 AVX+FMA+多线程的高度优化的库.因此,为了公平比较,您还必须通过使用 -march=native -fopenmp 进行编译并确保您使用的是 Eigen 3.3,从而在 Eigen 端启用这些功能。那么性能应该差不多。

关于 numpy,Warren Weckesser 已经解决了这个问题。您可能自己发现,在标准计算机上执行 2*3000^3=54e9 浮点运算需要 24 毫秒是不可能的。