为什么mpi_bcast比mpi_reduce慢得多?

时间:2013-06-09 08:44:57

标签: c++ mpi cluster-computing grid-computing

使用MPI,我们可以进行广播以将数组发送到多个节点,或者使用reduce来将多个节点中的数组组合到一个节点上。

我认为实现这些的最快方法是使用二叉树,其中每个节点发送到两个节点(bcast)或减少两个节点(reduce),这将给出节点数量的时间对数

似乎没有任何理由说广播会比减少特别慢?

我在4台计算机群集上运行以下测试程序,每台计算机有12个核心。奇怪的是,广播比减少要慢得多。为什么?我有什么可以做的吗?

结果是:

inited mpi: 0.472943 seconds
N: 200000 1.52588MB
P = 48
did alloc: 0.000147641 seconds
bcast: 0.349956 seconds
reduce: 0.0478526 seconds
bcast: 0.369131 seconds
reduce: 0.0472673 seconds
bcast: 0.516606 seconds
reduce: 0.0448555 seconds

代码是:

#include <iostream>
#include <cstdlib>
#include <cstdio>
#include <ctime>
#include <sys/time.h>
using namespace std;

#include <mpi.h>

class NanoTimer {
public:
   struct timespec start;

   NanoTimer() {
      clock_gettime(CLOCK_MONOTONIC,  &start);

   }
   double elapsedSeconds() {
      struct timespec now;
      clock_gettime(CLOCK_MONOTONIC,  &now);
      double time = (now.tv_sec - start.tv_sec) + (double) (now.tv_nsec - start.tv_nsec) * 1e-9;
      start = now;
      return time;
   }
    void toc(string label) {
        double elapsed = elapsedSeconds();
        cout << label << ": " << elapsed << " seconds" << endl;        
    }
};

int main( int argc, char *argv[] ) {
    if( argc < 2 ) {
        cout << "Usage: " << argv[0] << " [N]" << endl;
        return -1;
    }
    int N = atoi( argv[1] );

    NanoTimer timer;

    MPI_Init( &argc, &argv );
    int p, P;
    MPI_Comm_rank( MPI_COMM_WORLD, &p );
    MPI_Comm_size( MPI_COMM_WORLD, &P );
    MPI_Barrier(MPI_COMM_WORLD);
    if( p == 0 ) timer.toc("inited mpi");
    if( p == 0 ) {
        cout << "N: " << N << " " << (N*sizeof(double)/1024.0/1024) << "MB" << endl;
        cout << "P = " << P << endl;
    }
    double *src = new double[N];
    double *dst = new double[N];
    MPI_Barrier(MPI_COMM_WORLD);
    if( p == 0 ) timer.toc("did alloc");

    for( int it = 0; it < 3; it++ ) {    
        MPI_Bcast( src, N, MPI_DOUBLE, 0, MPI_COMM_WORLD );    
        MPI_Barrier(MPI_COMM_WORLD);
        if( p == 0 ) timer.toc("bcast");

        MPI_Reduce( src, dst, N, MPI_DOUBLE, MPI_SUM, 0, MPI_COMM_WORLD );
        MPI_Barrier(MPI_COMM_WORLD);
        if( p == 0 ) timer.toc("reduce");
    }

    delete[] src;

    MPI_Finalize();
    return 0;
}

群集节点运行64位ubuntu 12.04。我尝试了openmpi和mpich2,得到了非常相似的结果。网络是千兆以太网,这不是最快的,但我最好奇的不是绝对速度,而是广播和减少之间的差异。

2 个答案:

答案 0 :(得分:2)

我不认为这完全回答了你的问题,但我希望它能提供一些见解。

MPI只是一个标准。它没有定义应该如何实现每个功能。因此,MPI中的某些任务(在您的情况下为MPI_Bcast和MPI_Reduce)的性能严格基于您正在使用的实现。您可以使用比指定MPI_Bcast更好的点对点通信方法来设计广播。

无论如何,你必须考虑这些功能正在做什么。广播从一个进程获取信息并将其发送到所有其他进程; reduce是从每个进程获取信息并将其减少到一个进程。根据(最新的)standard,MPI_Bcast被认为是一对一的集体操作,MPI_Reduce被认为是一对一的集体操作。因此,您可能会在两种实现中找到关于将二叉树用于MPI_Reduce的直觉。但是,很可能在MPI_Bcast中找不到它。可能的情况是,MPI_Bcast是使用非阻塞点对点通信(从包含信息的进程发送到所有其他进程)通过通信后的等待来实现的。在任何情况下,为了弄清楚这两个函数是如何工作的,我建议深入研究OpenMPI和MPICH2实现的源代码。

答案 1 :(得分:0)

正如Hristo所说,这取决于缓冲区的大小。如果你要发送一个大缓冲区,广播将不得不做大量的大型发送,而接收对缓冲区进行一些本地操作,将其减少到一个值,然后只发送一个值而不是完整的缓冲区