使用SSE向量指令加速矩阵矩阵乘法

时间:2018-10-30 12:20:03

标签: c vector sse

在使用SSE向量指令向量化某些C代码时遇到一些麻烦。我必须取胜的代码是

#define N 1000
void matrix_mul(int mat1[N][N], int mat2[N][N], int result[N][N])
{
   int i, j, k;
   for (i = 0; i < N; ++i)
   {
      for (j = 0; j < N; ++j)
      {
         for (k = 0; k < N; ++k)
         {
              result[i][k] += mat1[i][j] * mat2[j][k];
         }
      }
   }
}

这是我到目前为止所得到的:

void  matrix_mul_sse(int mat1[N][N], int mat2[N][N], int result[N][N])
{
   int i, j, k; int* l;
   __m128i v1, v2, v3;
   v3 = _mm_setzero_si128();
   for (i = 0; i < N; ++i)
   {
       for (j = 0; j < N; j += 4)
       {

           for (k = 0; k < N; k += 4)
           {

               v1 = _mm_set1_epi32(mat1[i][j]);
               v2 = _mm_loadu_si128((__m128i*)&mat2[j][k]);
               v3 = _mm_add_epi32(v3, _mm_mul_epi32(v1, v2));
               _mm_storeu_si128((__m128i*)&result[i][k], v3);
               v3 = _mm_setzero_si128();
           }
       }
   }
}

执行后,我得到了错误的结果。我知道原因是从内存加载到v2。我以行主要顺序遍历mat1,因此我需要加载mat2 [0] [0],mat2 [1] [0],mat2 [2] [0],mat2 [3] [0] ....但是实际加载的是mat2 [0] [0],mat2 [0] [1],mat2 [0] [2],mat2 [0] [3] ...,因为mat2已按行主顺序存储在内存中。我试图解决此问题,但没有任何改善。 谁能帮我。

2 个答案:

答案 0 :(得分:4)

以下修正了您的实现方式

void  matrix_mul_sse(int mat1[N][N], int mat2[N][N], int result[N][N])
{
   int i, j, k;
   __m128i v1, v2, v3, v4; 
   for (i = 0; i < N; ++i)
   {
       for (j = 0; j < N; ++j) // 'j' must be incremented by 1
       {
           // read mat1 here because it does not use 'k' index
           v1 = _mm_set1_epi32(mat1[i][j]); 
           for (k = 0; k < N; k += 4)
           {   
               v2 = _mm_loadu_si128((const __m128i*)&mat2[j][k]);

               // read what's in the result array first as we will need to add it later to our calculations
               v3 = _mm_loadu_si128((const __m128i*)&result[i][k]);

               // use _mm_mullo_epi32 here instead _mm_mul_epi32 and add it to the previous result
               v4 = _mm_add_epi32(v3, _mm_mullo_epi32(v1, v2));

               // store the result
               _mm_storeu_si128((__m128i*)&result[i][k], v4);
           }
       }
   }
}

简而言之,_mm_mullo_epi32(需要SSE4.1)产生4 x int32结果,而_mm_mul_epi32则产生2 x int64结果。如果您不能使用SSE4.1,请查看答案here,了解替代的SSE2解决方案。

Intel Intrinsic Guide的完整描述:

  

_mm_mullo_epi32:将a和b中的压缩32位整数相乘,生成中间的64位整数,并存储   dst中间整数的低32位。

     

_mm_mul_epi32:将a和b中每个压缩的64位元素的低32位整数相乘,并存储   在dst中签署64位结果。

答案 1 :(得分:0)

我对您的代码进行了一些更改,以使寻址变得明确[在这种情况下,这很有帮助。

#define N 100

这是向量单位倍数和累加操作的存根;您应该能够用向量单元所抛出的任何距离替换NV,并将相关的操作码放在此处。

#define NV 8
int Vmacc(int *A, int *B) {
   int i = 0;
   int x = 0;
   for (i = 0; i < NV; i++) {
        x += *A++ * *B++;
    }
    return x;
}

此乘法与标准相比有两个显着变化: 1.将列向量矢量缓存到一个连续的向量中。 2.它试图将乘积的切片推入类似矢量的函数中。 即使不使用向量单位,这也只是因为更好的缓存/预取利用率而花费了朴素版本一半的时间。

void mm2(int *A, int *B, int n, int *C) {
    int c, r;
    int stride = 0;
    int cache[N];
    for (c = 0; c < n; c++) {
        /* cache cumn i: */
        for (r = 0; r < n; r++) {
            cache[r] = B[c + r*n];
        }
        for (r = 0; r < n; r++) {
            int k = 0;
            int x = 0;
            int *Av = A + r*n;
            for (k = 0; k+NV-1 < n; k += NV) {
                x += Vmacc(Av+k, cache+k);
            }
            while (k < n) {
                x += Av[k] * cache[k];
                k++;
            }
            C[r*n + c] = x;
        }
    }
}
相关问题