特征矩阵乘法比cblas慢?

时间:2016-12-01 06:48:49

标签: python c++ numpy eigen blas

我使用以下代码来测试Eigen性能。

#include <iostream>
#include <chrono>
#define EIGEN_NO_DEBUG
#include <eigen3/Eigen/Dense>
#include <cblas.h>
using namespace std;
using namespace std::chrono;

int main()
{
    int n = 3000;

    high_resolution_clock::time_point t1, t2;

    Eigen::MatrixXd A(n, n), B(n, n), C(n, n);

    t1 = high_resolution_clock::now();
    C = A * B;
    t2 = high_resolution_clock::now();
    auto dur = duration_cast<milliseconds>(t2 - t1);
    cout << "eigen: " << dur.count() << endl;

    t1 = high_resolution_clock::now();
    cblas_dgemm(CblasColMajor, CblasNoTrans, CblasNoTrans,
                n, n, n, 1.0, A.data(), n, B.data(), n, 1.0, C.data(), n);
    t2 = high_resolution_clock::now();
    dur = duration_cast<milliseconds>(t2 - t1);
    cout << "cblas: " << dur.count() << endl;

    return 0;
}

我使用以下命令编译它:

g++ test.cpp  -O3 -fopenmp -lblas -std=c++11 -o test

结果是:

eigen:1422 ms

cblas:432 ms

我做错了吗?根据他们的基准,它应该更快。

另一个问题是使用numpy我得到24毫秒

import time 
import numpy as np

a = np.random.random((3000, 3000))
b = np.random.random((3000, 3000))
start = time.time()
c = a * b
print("time: ", time.time() - start)

1 个答案:

答案 0 :(得分:1)

说您使用cblas提供的信息非常少,因为cblas只是一个API。底层的BLAS库可以是netlib的BLAS,OpenBLAS,ATLAS,英特尔MKL,Apple的加速,甚至是EigenBlas ......根据您的测量结果,很明显您的基础BLAS是高度优化的BLAS利用AVX + FMA +多线程。因此,为了公平比较,您还必须通过使用-march=native -fopenmp进行编译来启用Eigen方面的这些功能,并确保使用Eigen 3.3。那么表现应该差不多。

关于numpy,Warren Weckesser已经解决了这个问题。您可能已经发现自己无法在标准计算机上执行2*3000^3=54e9浮点运算24ms。